ジェネレーティブAIが提示するのは「答えらしきもの」

おわかり頂けたでしょうか。自分自身が「正誤のチェック役」として機能できない未知の分野について学ぶときに、ジェネレーティブAIを「(絶対的な正解を教えてくれる)先生」と思ってはいけません。

伊藤穰一『AI DRIVEN AIで進化する人類の働き方』(SBクリエイティブ)
伊藤穰一『AI DRIVEN AIで進化する人類の働き方』(SBクリエイティブ)

つまり、「その分野に詳しい先生に教わった回答を、そのまま覚える」というかたちの学びは、ジェネレーティブAIには向いていないということです。

したがって、いくらジェネレーティブAIが「答えらしきもの」を提示しても、「実は間違えているかもしれない」という可能性を常に念頭に置くこと。この心得が非常に重要です。

ジェネレーティブAIは、取り込んだデータや情報だけを見て「答え」を出そうとする、ゆえにときどき適当に捏造してしまう、しかも、その説明がすごく饒舌でうまいから性質が悪い……という知ったかぶりの友人みたいなものです。「学びのとっかかり」「学びを発展させるきっかけ」をつくってくれるものとしては有用だけど、「正解を教えてくれるもの」ではない。あくまでも学びの糸口や、学びのパートナーとして捉えておくといいでしょう。

ChatGPTを学びのツールとすることで、人間が恥をかくこともあると思います。たとえば、ついChatGPTを信じて間違った内容をクラスで発表してしまい、もし自分でいちから調べていたら起こらないような間違え方をしていたら、「さてはChatGPTで調べたでしょう?」と周囲から指摘されてしまう。有害な影響がなければ、これも貴重な学びの1つとして捉えることができます。

人間とロボットのパートナーシップ
写真=iStock.com/metamorworks
※写真はイメージです

自分なりの検証が必要

次の学びのステップは、ジェネレーティブAIが提示した答えを自分なりに検証してみることです。別のジェネレーティブAIに同じ質問をしてみる、検索エンジンでキーワードを調べる、本や文献にあたってみる、など。

結果的に、「AIが答えたとおりだった」ということもあれば、「AIは、この部分とこの部分で間違っていた」と判明することもあるでしょう。また、AIが出した答えを検証する過程で、様々な周辺情報や派生的な知識にも自然と触れることになるはずです。この過程も含めて、うまく活用すれば得るものが非常に多い効果的な勉強法ともいえるのです。

POINT
●ジェネレーティブAIが示す情報の精度は、ネット上の、そのテーマに関する情報の蓄積の多寡によって決まる。情報量が多いテーマを調べることには向いているが、そうでない場合は別の手段を選択することも考えたほうがいい。
●ジェネレーティブAIの性質上、嘘がネット上に流布しており、その嘘情報をAIが取り込む、という「嘘情報の連鎖」が起こるリスクが常にある。
●「いつも正しい答えを教えてくれる先生」と認識してはいけない。ユーザー側は、提供される情報をあくまで「仮の答え」として捉え、厳しくチェックする姿勢を貫かなければならない。
伊藤 穰一(いとう・じょういち)
デジタルガレージ取締役

デジタルガレージ取締役・共同創業者・チーフアーキテクト、千葉工業大学変革センター所長。デジタルアーキテクト、ベンチャーキャピタリスト、起業家、作家、学者として主に社会とテクノロジーの変革に取り組む。民主主義とガバナンス、気候変動、学問と科学のシステムの再設計などさまざまな課題解決に向けて活動中。2011年から2019年までは、米マサチューセッツ工科大学(MIT)メディアラボの所長を務め、2015年のデジタル通貨イニシアチブ(DCI)の設立を主導。また、非営利団体クリエイティブコモンズの取締役会長兼最高経営責任者も務めた。ニューヨーク・タイムズ社、ソニー株式会社、Mozilla財団、OSI(The Open Source Initiative)、ICANN(The Internet Corporation for Assigned Names and Numbers)、電子プライバシー情報センター(EPIC)などの取締役を歴任。2016年から2019年までは、金融庁参与を務める。