巧みな会話が“人格”を感じさせてしまう
私たちはこれを、一体どう理解すればよいのだろうか。
BingにはChatGPTに搭載されているGPT-3.5を進化させたといわれる「Prometheus」という大規模言語処理用のAIモデルが搭載されている。さらに、検索エンジンからリアルタイムで情報を収集しているため、チャットボットの会話には、最新の情報の検索結果が反映されている。
もちろん、AIに感情はなく、教えられたことや、ネット上に存在する星の数ほどの情報から学習したことをベースに答えを生成しているにすぎない。しかし、学習対象となった情報の中には、映画やSF小説、ツイッター上の会話などのさまざまなコンテンツがあるため、「映画や小説のセリフのような」ロマンチックな会話もお手の物だ。
私たち人間が、これほど巧みに会話ができるようになったAIのチャットボットを、まるで人格を持つ生き物のように感じるようになっても不思議ではない。ルース氏は、シドニーとの2時間あまりの会話の後、眠れなかったと話していた。
もし、気持ちが弱っている人や、メンタル不調に陥っている人が、AIとこのような“会話”をしたらどうなるだろうか。AIとのやり取りに依存する人も出てくるだろうし、陰謀論や誤った情報を吹き込まれて信じてしまう人もでてくるのではないか。また、子どもたちはどう受け止めるのだろうか。
人の感情を操作してしまう恐れも
AIスタートアップ、ハギング・フェイス(Hugging Face)のシニアリサーチャーで、以前GoogleのAI倫理チームの共同リーダーだったマーガレット・ミッチェル氏は、ワシントンポストの取材に、この技術は、情報検索に使うべきではないと語っていた。「AIは訓練によっては、信頼性の低い内容でも、あたかも真実であるかのように表現できてしまいます。だから『信頼できる、事実に基づいた情報を提供する』という、検索ツールの目的にそぐわないのです」
ミッチェル氏は、このようなAIが持つ真のリスクは、間違った情報を提供してしまうことだけでなく、人々の感情を操作し、悪影響を与える可能性があることだと指摘している。
案の定、メディアでBingの“暴走”について指摘され始めた数日後の2月15日、マイクロソフトはブログの投稿で、「『15以上の質問』を含む長時間の会話は、Bingを混乱させることがあるほか、『質問者の質問口調』を模倣してしまう可能性がある」と述べた。そして、2月17日には、1セッションの会話の質問は5つまで、1日50までに制限すると発表した。しかし、今度はユーザーから使いづらいとのクレームが相次ぎ、その4日後には1セッション6つの質問、1日60までの制限に緩めた。