※本稿は、野口悠紀雄『ChatGPT「超」勉強法』(プレジデント社)の一部を再編集したものです。
ChatGPTは誤った回答を出すことがある
ChatGPTを用いて学習を進めるのは、非常に楽しく効率のよい方法だ。しかし、この実行にあたって、乗り越えなければならない大きな問題がある。
それは、ChatGPTなど生成AIが出力する結果が、正しいとは限らないことだ。時々間違った回答をする。これは「ハルシネーション」(幻覚)と呼ばれる現象であり、深刻な問題だ。
2024年1月時点で、GPT-4は2023年4月までのデータしか学習していないため、それ以降の事柄については答えられないはずだ。それにもかかわらず、答えを出すことがある。
また、2023年4月以前の情報についても、間違うことがある(具体的な例は後述する)。BingやBardなどウェブ検索を行なうツールなら間違いが少なくなると思われがちだが、実際には、これらを用いても誤りが生じる。
誤った家庭教師から誤った知識を得る危険
ハルシネーションに注意せずにChatGPTを用いて勉強すると、誤った知識を身につけてしまう危険がある。そうした人が増えれば、社会は大混乱に陥るだろう。
そのような事態を、未然に食い止める必要がある。これに対して警告を発し、その対処法を考えることは、喫緊の課題だ。
ChatGPTは、家庭教師としてすでに広く利用されている。アメリカでは人間の家庭教師からChatGPTへの切り替えが急速に進んでいる。
教育関連のオンライン雑誌Intelligent.comが2023年10月に紹介したアンケート調査の結果によると、9割近くの学生や親が、人間の家庭教師よりもChatGPTのほうが優れていると答えている(*)。
*New Survey Finds Students Are Replacing Human Tutors With ChatGPT, Intelligent.com. 2023/10/24
そして、3割程度の学生がすでにChatGPTに切り替えている。日本での調査でも、かなりの数の学生がChatGPTを使ったことがあると答えている。だから、誤った知識を学んでしまうリスクは、すでに現実のものとなっている。