シンギュラリティが起きるわけがない

哲学的に言えば、ChatGPTにはソクラテスの言った「無知の知」がありません。そのため、間違っているかどうかは考慮せず、入力された質問に応じて、確率的に高い単語を組み合わせて返答してしまう。

ChatGPT自身が、何を知っていて、何を知らないかを判断できない状態のまま、せっせと文章を作っているから間違えてしまうのです。その意味では、「知らないことがあることを知っている人は、そうでない人よりも賢い」と考える人間の方が、ずっと賢い。

AIが人間を超える「シンギュラリティ(技術的特異点)」など、まだまだずっと先と言えるでしょう。

決して回答は中立ではない

なめらかな返事をする生成AIの誕生に、世間は世界が変わると沸いていますが、先ほどの「業務効率化」の話と同様、社会がいい方向にだけ変わるとは限りません。

現在のChatGPTは、差別発言などを発しないよう、文字通り人海戦術、つまり人間の手で問題のある表現にラベルを貼って、使わないように学習させています。

そのため、英語データで言えば、差別的な表現をしやすい人、例えばトランプ支持者のような人たちの書き込みは学習から外されている、といわれています。

現在、そうした方針は「差別発言を避ける」ために合理的である、として許容されていますが、特定の表現を避けるという「偏り」があることは確かです。

人格のないAIが答えていると言っても、その回答内容は必ずしも「中立」ではありません。例えばAIに料理のレシピを質問すると、特定のメーカの特定の調味料を使うレシピを出力するという、ある種のステルスマーケティングになっている状況もないとはいえません。

今後、実際は偏っているのに、中立に見えるというAIの印象を悪用しようという人たちも出てくるでしょうから、「生成AIに聞けば、常に客観的で中立公正な情報を教えてくれる、というわけではない」「鵜呑みにしていいものではない」ことは、ユーザーである私たちも知っておく必要があるでしょう。

夜、ノートパソコンで不審なコンテンツをチェックしている女性
写真=iStock.com/Pheelings Media
※写真はイメージです

ChatGPTの最もよい使い方

今後、AIの進化に伴って返答の事実関係の間違いも減っていくでしょうが、だからといって鵜呑みにするのは危険です。少なくとも、現時点での「ChatGPTの最もよい使い方」は、「知らないことを尋ねるのではなく、知っていることの文章生成のお手伝いをしてもらう」こと。

間違った情報や、表現の偏りが含まれる文章が生成されることを承知のうえで、あくまで「手伝ってもらう」ことを主眼に置くべきです。