ジェネレーティブAIが提示するのは「答えらしきもの」
おわかり頂けたでしょうか。自分自身が「正誤のチェック役」として機能できない未知の分野について学ぶときに、ジェネレーティブAIを「(絶対的な正解を教えてくれる)先生」と思ってはいけません。
つまり、「その分野に詳しい先生に教わった回答を、そのまま覚える」というかたちの学びは、ジェネレーティブAIには向いていないということです。
したがって、いくらジェネレーティブAIが「答えらしきもの」を提示しても、「実は間違えているかもしれない」という可能性を常に念頭に置くこと。この心得が非常に重要です。
ジェネレーティブAIは、取り込んだデータや情報だけを見て「答え」を出そうとする、ゆえにときどき適当に捏造してしまう、しかも、その説明がすごく饒舌でうまいから性質が悪い……という知ったかぶりの友人みたいなものです。「学びのとっかかり」「学びを発展させるきっかけ」をつくってくれるものとしては有用だけど、「正解を教えてくれるもの」ではない。あくまでも学びの糸口や、学びのパートナーとして捉えておくといいでしょう。
ChatGPTを学びのツールとすることで、人間が恥をかくこともあると思います。たとえば、ついChatGPTを信じて間違った内容をクラスで発表してしまい、もし自分でいちから調べていたら起こらないような間違え方をしていたら、「さてはChatGPTで調べたでしょう?」と周囲から指摘されてしまう。有害な影響がなければ、これも貴重な学びの1つとして捉えることができます。
自分なりの検証が必要
次の学びのステップは、ジェネレーティブAIが提示した答えを自分なりに検証してみることです。別のジェネレーティブAIに同じ質問をしてみる、検索エンジンでキーワードを調べる、本や文献にあたってみる、など。
結果的に、「AIが答えたとおりだった」ということもあれば、「AIは、この部分とこの部分で間違っていた」と判明することもあるでしょう。また、AIが出した答えを検証する過程で、様々な周辺情報や派生的な知識にも自然と触れることになるはずです。この過程も含めて、うまく活用すれば得るものが非常に多い効果的な勉強法ともいえるのです。
●ジェネレーティブAIが示す情報の精度は、ネット上の、そのテーマに関する情報の蓄積の多寡によって決まる。情報量が多いテーマを調べることには向いているが、そうでない場合は別の手段を選択することも考えたほうがいい。
●ジェネレーティブAIの性質上、嘘がネット上に流布しており、その嘘情報をAIが取り込む、という「嘘情報の連鎖」が起こるリスクが常にある。
●「いつも正しい答えを教えてくれる先生」と認識してはいけない。ユーザー側は、提供される情報をあくまで「仮の答え」として捉え、厳しくチェックする姿勢を貫かなければならない。