ChatGPTを用いて学習するのは非常に効果が高いが、生成AIには時々間違った答えを出力する「ハルシネーション」という問題がある。これにどう対応すべきか。『ChatGPT「超」勉強法』を上梓した野口悠紀雄さんは「大規模言語モデル(LLM)がどのように言葉や概念を理解し、どのように出力を作っているかに関する理解が必要だ」という――。(第3回/全4回)

※本稿は、野口悠紀雄『ChatGPT「超」勉強法』(プレジデント社)の一部を再編集したものです。

ChatGPTは誤った回答を出すことがある

ChatGPTを用いて学習を進めるのは、非常に楽しく効率のよい方法だ。しかし、この実行にあたって、乗り越えなければならない大きな問題がある。

それは、ChatGPTなど生成AIが出力する結果が、正しいとは限らないことだ。時々間違った回答をする。これは「ハルシネーション」(幻覚)と呼ばれる現象であり、深刻な問題だ。

2024年1月時点で、GPT-4は2023年4月までのデータしか学習していないため、それ以降の事柄については答えられないはずだ。それにもかかわらず、答えを出すことがある。

また、2023年4月以前の情報についても、間違うことがある(具体的な例は後述する)。BingやBardなどウェブ検索を行なうツールなら間違いが少なくなると思われがちだが、実際には、これらを用いても誤りが生じる。

人間のようなロボット
写真=iStock.com/simarik
※写真はイメージです

誤った家庭教師から誤った知識を得る危険

ハルシネーションに注意せずにChatGPTを用いて勉強すると、誤った知識を身につけてしまう危険がある。そうした人が増えれば、社会は大混乱に陥るだろう。

そのような事態を、未然に食い止める必要がある。これに対して警告を発し、その対処法を考えることは、喫緊の課題だ。

ChatGPTは、家庭教師としてすでに広く利用されている。アメリカでは人間の家庭教師からChatGPTへの切り替えが急速に進んでいる。

教育関連のオンライン雑誌Intelligent.comが2023年10月に紹介したアンケート調査の結果によると、9割近くの学生や親が、人間の家庭教師よりもChatGPTのほうが優れていると答えている(*)

New Survey Finds Students Are Replacing Human Tutors With ChatGPT, Intelligent.com. 2023/10/24

そして、3割程度の学生がすでにChatGPTに切り替えている。日本での調査でも、かなりの数の学生がChatGPTを使ったことがあると答えている。だから、誤った知識を学んでしまうリスクは、すでに現実のものとなっている。