アメリカのベンチャー企業、OpenAIが2022年11月30日に公開した対話型オープンAI「ChatGPT」は、人類の知的活動における生産性を飛躍的に高める可能性を秘めていると考えられます。話題になるのは当然と言えます。
ところがこの4月、新しい学年、年度を迎える中で日本の多くの大学では、大学として「利用の禁止、制限」をするというメッセージを発信しているようです。報道によれば、例えば、上智大学は「リポートや学位論文でChatGPTなどのAIが生成した文章や計算結果などを、教員の許可なく使うことを禁止」と、ここまでは当たり前ですが、「使用が判明した場合、厳格な対応を行う」というネガティブな告知を行っています。
4月7日に行われた京都大学の入学式では湊長博学長が、AI生成の論文には問題が多いと述べ、「文章を書くということは、非常にエネルギーを要する仕事だが、皆さんの精神力と思考力を鍛えてくれる」とスピーチの中で訴えたようです。間違ってはいませんが、やはりAIに対する姿勢はネガティブです。
もちろん、学生が「自分は理解していない」くせに、「AIが出力した解答」を丸写ししては全く学力は伸びません。まして、自然科学にしても、人文科学にしても、言語にしても、必要な知識や技能の獲得をサボって、AIで宿題を済ませるようでは、教育は成立しないのは確かです。大学でも、教養課程あるいは各分野の基礎に関しては、AIに頼らずに頭と手を使って学習することは求められると思います。
AI実用化で人間の役割は変わる
そうではあるのですが、一連の各大学のメッセージ発信が全て「ネガティブ」なことには違和感があります。まるで黒船を恐れる江戸時代の人々や、写真は魂を吸い取るとか、電話するとコレラが伝染ると怖がった明治初期の人々のようだからです。2点指摘したいと思います。
1点目は、AIが実用化されるということは、教育の定義が変わるということです。AIが多くのタスクをこなす能力と信頼性を持つのならば、人間の役割はより高度に知的な活動にシフトすることになります。つまり、「AIを使いこなす」あるいは「AIのエラーを見抜いて訂正する」活動ということです。
にもかかわらず「AIを使うのは不正だからAI禁止」という教育を行うということは、「人間がAIに負けていく」ことになります。そんなことをやっていては、やがて人間はAIの命令を受けるか、AIによってエラーを訂正される惨めな存在になってしまいます。
特に日本の場合は、高校以下の教育が悪しき平等主義や悪しきペーパー偏重入試のために「正解のある」問題だけに取り組むという、中程度の知的活動に限定されています。だからこそ、大学では「AIを使いこなす」という、より高度な知的活動へと教育の目標を質的に転換しなくてはなりません。
この文明の転換というべき問題に対して、とりあえず「AIは禁止」とか「論文は手で書いて」などというメッセージを発信するというのは、AIのもたらすインパクトへの危機感が不足している点、教育とか学問のあり方をどう転換していったら良いかということを「考えていない」点で、大きく失望させられると言わなくてはなりません。