すでに囲碁の世界で起きている

人間とAIがどのように共存していくべきかを研究するこの手の分野は「AIアラインメント」と呼ばれます。AIアラインメントの前提になるのは、人間が人工知能の振る舞いを理解できることです。

脳科学者の茂木健一郎さん
脳科学者の茂木健一郎さん(出所=『ChatGPT vs. 未来のない仕事をする人たち』)

たとえば、人生のアドバイスをしてくれるAIがいたとして、「なぜ、そうしたほうがいいのですか?」と理由を尋ねた時に、AIが「こうこう、こうだから」と理由を教えてくれないと人間は困惑します。

ただ人間の知能をはるかに超えた知能は、理由や過程をすっ飛ばして、最終的な結論や結果だけを指し示すかもしれません。そうなると、人間からすると荒唐無稽だったり、数年経たなければ伏線が理解できない場面が次々に出てくるはずです。

考えてみれば、私たちはすでにそうした状況に置かれています。アルファ碁が人間のチャンピオンを破った時、人間の囲碁棋士であれば考えもつかない手を次々と指していたことを思い出してください。今後のAIはますます知能を高めていくので、私たちは社会のあらゆるところでAIの出した答えに戸惑うような場面に遭遇していくはずです。「ヴィンジの不確実性」はそうした社会問題を予言しているのです。

AIは3段階で発展していく

ここまでの話を、哲学者のニック・ボストロムが提唱した人工知能の三つの発展段階に照らしてみましょう。ボストロムは人工知能を発展段階によって、オラクル(Oracle)、ジーニー(Genie)、ソヴァリン(Sovereign)と三類型に分けました。

第1段階 オラクル型→何かを質問すると答えが返ってくる
第2段階 ジーニー型→ある課題を与えると手段を選び実行する
第3段階 ソヴァリン型→人工知能自体が目的を定めて遂行していく

「ヴィンジの不確実性」は三つの類型すべてにおいてかかわってくる問題です。

たとえば、オラクルに「僕にぴったりの服を教えて」と尋ねると、自分の発想からは想像もできないスタイリングを提案されたとしましょう。とりあえず言う通りに着てみると、3カ月後に流行の先端だったと気づくなど、時間が経つにつれてオラクルが勧めてくる理由がわかるかもしれません。

ジーニーはどうでしょうか。「お昼ご飯を買ってきて」と頼んだのに、ジーニーがご飯を買ってこないでパズルを買ってきたとしましょう。一瞬、自分が頼んだ通りにタスクが遂行されないことにイラつくかもしれませんが、もしかしたらジーニーは依頼者が肥満であることを気にして、お昼ご飯を抜いてもイライラせずにランチタイムを過ごせるようパズルを買ってきたのかもしれない。