※本稿は、中山心太『高校生だけじゃもったいない 仕事に役立つ新・必修科目「情報I」』(PHP研究所)の一部を再編集したものです。
GPTは「次の単語を予測するAI」
ChatGPTをはじめとする大規模言語モデル(LLM:Large Language Model)には、ハルシネーション(妄想)という問題が付きまといます。たとえばChatGPTに「横浜の中華料理屋のおススメは?」と聞くと、かなり高い確率で存在しない店舗を紹介されます。
ChatGPTの元となったGPTは次の単語を予測するAIです。たとえば「今日の天気は」という言葉の続きを予測させると、「今日の天気は晴れです……」となります。「今日の天気は」の続きには「晴れです」や「曇りです」や「あいにくの空模様です」といった天気に関する言葉が繋がりそうです。しかし、「中華料理屋です」「東京です」といった天気に関係のない言葉は繋がりそうもありません。
「横浜の中華料理屋のおススメは?」と聞かれた際にChatGPTはどうするかというと、中華料理屋の店名のように聞こえる適当な言葉を繋いでしまうのです。これはChatGPTの元になったGPTが「次の単語を予測するAI」だから仕方ないのです。
繋がりやすい言葉を口に出しているだけ
ChatGPTは「過去のチャット履歴から、常識的に考えて繋がりやすい言葉を次々と繋げている」だけに過ぎません。しかし、この性能が極限まで高まった結果、ある種の知性と呼んでも差し支えないレベルにまで到達しています。
我々が母国語で日常会話をしているときも、おおよそそんなものです。なんとなく繋がりやすい言葉を口に出しているだけで、裏側で高度な思考をしているわけではありません。けれども人はそこに知性を感じます。
ハルシネーションの発生は、現在のLLM単体での技術的な限界点です。ハルシネーションは創作と裏表です。メールのテンプレートを作ったり、文章の意味を出力させたり、特定の立場の人からの意見を貰ったり、こういった能力は創作する能力がなくては実現することができないのです。そのため、LLMが有効な問題を適切に見分け、有効な問題にだけLLMを使うことや、ほかの技術と組み合わせることでLLMの欠点を補うことが求められます。