ニュース

今話題のAI「ChatGPT」とは何か? 人の仕事は奪われるのか? アステリアが解説

OpenAIのChatGPTの画面

 ソフトウェアベンダーのアステリアは、対話型AIとして注目を集めている「ChatGPT」について、メディアやアナリストなどを対象にした説明会を行なった。AI研究に関する開発子会社であるアステリアART(アステリアArtificial Recognition Technology)の園田智也代表は、「ChatGPTによって、個人の能力が大幅に補完され、できることの可能性が広がる時代に入ったことは間違いない。気がついたら、AIと一緒に働いている世界になっていたと思った人も多いのではないか」と指摘。アステリアの平野洋一郎社長兼CEOは、「当社製品を利用して、ChatGPTをシステムやサービスに直結するようなことが可能になる。ChatGPTによるプログラムの検証や業務フローの検証が可能になり、不具合の減少につなげることもできる。ビジネスソフトを使いやすく、価値の高いものにすることができるだろう」と述べた。

 アステリアは、ノーコード技術で業務の自動化を支援する「ASTERIA Warp(アステリアワープ)」などを製品化しているソフトウェア企業で、国内のEAI/ESB(Enterprise Application Integration/ Enterprise Service Bus)ソフト市場では16年連続でトップシェアの実績を持つ。AIに関する投資にも力を注いでおり、AI研究の開発子会社としてアステリアArtificial Recognition Technology(アステリアART)を2019年に設立している。

 OpenAIが開発したChatGPTは、2022年11月に公開され、日本語での問いかけに対しても、自然言語処理で回答を行なうAIチャットサービスである。現時点では、プレビュー版として提供されており、メールアドレスや名前を登録すれば無料ですぐに利用できる。また、Microsoftの検索サービスであるBingでも、この技術を活用したプレビュー版を提供。申請することで利用できる。

 アステリア ノーコード推進室エバンジェリストの森一弥氏は、「ChatGPTは、研究者や技術者に限定せず、誰もが触れることができ、その体験をSNSでも発信できる。日本語で利用できる点や、さまざまな質問に回答するため、応用事例を共有しやいため、多くの人が一気に利用しはじめている。また、文書の要約や翻訳、契約書や帳票などのひな形作成、プログラムの生成などにも応用範囲が広がり、さらに文書やプログラムのミスも指摘してくれる。校正の機能の精度が高くはないが、人がやるよりは簡単に校正箇所を見つけることができるだろう。

アステリア ノーコード推進室エバンジェリストの森一弥氏

 また、APIを利用することで、業務などで利用しているアプリにも応用でき、業務の効率化も図れる。具体的な例としては、サポート業務の支援に活用したり、レポート作成や分析資料の作成を行なったり、自社サイトでの商品説明に利用したり、アンケートやSNSに寄せられた大量コメントを分析することができる」とした。

 だが、「ChatGPTの機能は誰かの仕事を奪うものではなく、人を手助けする『便利な道具』の登場であると捉えるべきだ」と述べた。

ChatGPTでできること

 その一方で、課題も指摘した。

 「ChatGPTは、2021年までの情報を学習しているため、最新の情報に関する内容は返ってこない。今の天気や交通情報に関する情報は得られない」としたほか、「回答は真実とは限らないため、ファクトチェックが必要になる。また、倫理的な問題があるような回答は返さないようにしているようだが、限界があるためチェックが必要である」とも述べた。

ChatGPTが生まれた背景とそれに使われている技術

 ChatGPTは、翻訳や分類などのさまざまな機能を有した大規模な単一AIモデルであるGPT-3.5を活用。ここでは、Transformerという手法を用いることで、1,750億個のパラメータを持つ大規模言語モデルを実現しているという。

アステリアArtificial Recognition Technology 代表の園田智也氏
ChatGPTとは

 アステリアARTの園田代表は、「従来のAIは、ディープラーニングによって進化してきたが、AIを学習させるためには数千~数十万のデータセットが必要であり、そのラベル付け作業が大変であるため、学習したものを再利用する事前学習モデルや転移学習が利用されてきた。だが、この学習方法は画像認識には適したものであり、言語モデルに適した手法がなかった。そこに登場したのがTransformerであった」とする。

 Transformerは、2017年にGoogleが発表したAIモデルであり、もともとは機械翻訳のために作られたものだ。

 「Transformerは、自然言語処理において、初めて事前学習を行なうことができるようになった技術。大量データで言語の特徴を学習し、それをもとに、学習済みの比較的少量のデータで、特定タスクを学習して、利用者が望む形にファインチューニングするという手法ができあがった。これが大きなブレイクスルーになり、いまではTransformerが自然言語処理技術の中心になっている」という。

 Transformerの事前学習は、2018年に発表したBERTモデルにおいては、文章の約10%の文字を隠して、その文字を当てることを繰り返して自分で学習する手法を採用していたが、GPTでは文章の次に出てくる文字を予測することを繰り返す手法を採用。単語の位置や単語間の関係を学習することで、効率的に自動で学習することができるようになったという。

Transformerモデル
Transformerと従来のディープラーニングの違い

 また、ファインチューニングでは、「今日の昼食は?」と質問したときに、前提知識として「サラダかパスタ」という選択を文章の間に挟んで、それをもとに学習させて、精度の高いQ&Aシステムを構築するようにしたという。

 だが、ファインチューニングを人手で数千件行なうのは手間であることから、それを解決する手法として次に登場したのが、2019年のGPT-2で採用したCommonsense Reasoningである。データセットを10倍に増やし、モデルパラメータも10倍に拡大。これによって、常識的な出力を得ることが可能になったという。

従来の学習
Fine tuningの例
Commonsense Reasoning

 例えば、「子供と大人では、どちらが腕相撲が強いですか?」という質問に対しては、一般的には大人の筋力の方が、子供の筋力に勝るという理由を、Commonsense Reasoningでは、ファインチューニングを行なわずに理解し、回答することができるようになったという。

 しかし、データセットやパラメータを増やし続けることで、より精度が高まるのか、そのための投資コストが見合うのかといった課題が生まれてきた。そこで新たに注目を集めたのが、Scaling Lawsである。これにより、訓練時間やデータセットのサイズ、パラメータ数を増やすと、それにあわせて誤差が減少するという規則性を発見。この結果、どれぐらいのデータセット量やパラメータ量を増やせば、どれぐらいの効果が得られるのかが予測できるようになり、投資対効果を算定しやすくなった。

Scaling Laws

 「Scaling Lawsにより、しばらくの間、計算資源に投資をしても大丈夫であるということも分かった。1兆パラメータまでは投資を続けても効果が生まれる。現在もこれをベースに投資をしていく流れができあがっている」という。

 また、大規模AIモデルの構築には、データの準備や学習コストがかかるため、APIを活用して、公開されたAIモデルに追加学習することで、それぞれの業務に当てはめて利用することが今後の主流になるとの見方も出ている。

 さらに、ChatGPTで利用されているGPT-3では、例示によって学習する方法に適している点が見逃せないという。例示をもとに、世界中の知識をもとに推論。これによって、ファインチューニングを不要にしているという。例えば、「リンゴはApple。では、バナナは?」というように、先に例となる文章が入ると、これを英訳問題だと解釈して、回答を導き出すという。

そしてGPT-3へ

 加えて、「ChatGPTでは、前処理と後処理への投資が行なわれている。人では回答しないような答えが出てきたときには、人からのフィードバックを反映することで、人の意図に沿った回答をしたり、事実のでっちあげを軽減したりといったことができるようになった。そこで、2022年11月に、ChatGPTが一般公開できるレベルに到達したと判断。安全に運用でき、バイアスが少ない形で公開されている」とした。

 また、アステリアARTの園田智也代表は、「2022年11月のChatGPTの登場前と登場以降では、世界が大きく変わってくる」と指摘。「大規模に学習させたモデルはFoundation Modelsと呼ばれており、文章から文章を生成するだけでなく、文章から絵を生成したり、3D画像を生成したり、ロボットの制御の計画まで出せるようになっている。

 Microsoftでは、ChatGPTを使って、さまざまなロボットを制御できるようにしている。これらの根幹にあるのがTransfomerの技術であり、さまざまな分野に応用できるGenerative AI(生成AI)が進展することになる」とした。

 「知能が、水道のようにインフラ化される時代がやってきており、AIを自分の仕事に自然に利用するようになるだろう。コラボレーションツールであるNotionや、テキスト入力でスライドを生成するTomeなどのアプリは、裏側でGenerative AIが稼働しているが、しばらくするとオフィスアプリやモデリング、デザイン、音楽ツールなどにもGenerative AIが標準で搭載されるようになり、レシピサイトでもAIで生成した新たな料理を紹介したりするだろう。さまざまなサイトでGenerative AIが利用される可能性がある」とも述べた。

 さらに、「ChatGPT では、Pythonで書いたプログラムをJavaにしてほしいと要望すれば、きれいなプログラムに書き換えてくれる。それをテストしながら使えば効率がよく、その結果、エンジニアの人事採用にも影響してくるだろう」としたほか、自らが早稲田大学非常勤講師を務めていることを引き合いに出しながら、「中には、ChatGPTで生成したレポートを提出する学生もいる。それをChatGPTに対して、『これはChatGPTで作成されたものですか』と質問することもあった」と、ユニークなエピソードも披露した。

ChatGPT APIの活用

今後もChatGPTのようなサービスが増える

 一方、ChatGPTの競合サービスについても説明。アステリア ノーコード推進室エバンジェリストの森一弥氏は、「現時点で一般の人が利用できるものはChatGPT以外にはないが、2023年2月だけでも、ChatGPTの競合サービスによる多くの発表が行なわれている」とした。

ChatGPTの入力画面

 Googleの対話型AI「Bard」は、2022年6月にAIが感情を獲得したと主張して話題を集めたLaMDAの技術を利用。GitHubで公開されているFlexGenはGPUリソースを大量に使用しない点にメリットがあるとして注目を集めている。

 Stable Diffusionの開発元であるStability AIによるStable Chatは日本語対応サービスを提供。Hugging FaceとAWSは、大規模言語モデルのBloomをAWS上で提供すると発表し、Meta(旧Facebook)は大規模言語モデルのLLaMAを研究者向けに提供すると発表している。

 なお、アステリアでは、今回の説明会の開催にあわせて、その内容について、ChatGPTに相談したことを明かし、「ChatGPTを名前ぐらいしか知らないメディア関係者に対して、勉強会をする予定なのですが、どのような内容を紹介すべきですか」との質問に対して、「ChatGPTとは何か」、「ChatGPTの応用例」、「ChatGPTの訓練方法」、「ChatGPTの限界と今後の展望」の4項目があがり、それに沿って、補足しながら説明を行なったとした。

アステリア 代表取締役社長兼CEOの平野洋一郎氏