「自分の専門外」の嘘にコロッと騙される

ビジネスパーソンが自分の専門分野で生成AIを使う場合には、これまで培った「専門知識」や「勘」といったものが助けてくれますから、ChatGPTなど生成AIがときに返してくる誤った情報などに騙される可能性は小さくなります。

逆に、自分の専門以外の言わば「畑違いの分野」ではよく知らないことが多いので、ChatGPTの嘘にコロッと騙される危険性が高まります。ミッチェル氏が指摘しているのは、まさにその点なのです。

ユーザーからの質問に誤った情報や「幻覚」のような答えを返したり、ときに疑似人格のような不気味な反応を示したりするのは、ビング・チャットのベースにあるOpenAIのGPT-4、あるいはグーグルのLaMDAなどLLM全般に共通する問題のようです。

ベルギーではそれに起因すると見られる深刻な事件が起きました。

同国の日刊紙「ラ・リーブル(La Libre)」が2023年3月に報道したところによれば、ある男性がスマホ・アプリとして提供されているチャットボット(対話型AI)との長時間にわたる会話を経て自殺したといいます。

対話型AIに魅了され、自殺してしまった男性

この男性はラ・リーブルの記事の中で「ピエール(Pierre)」という仮名で紹介されていますが、以前から地球温暖化の悪影響を過度に懸念するなど神経症的な傾向を示して、家族や友人との関係も疎遠になっていったとされます。

やがてピエールは、米国のスタートアップ企業「チャイ・リサーチ」が提供する「チャイ(Chai)」と呼ばれるスマホ・アプリを使い始めました。

チャイは国籍不明の非営利研究団体「エレウテールAI(EleutherAI)」が提供する「GPT-J」と呼ばれるオープンソースのLLMをベースに開発されており、様々なペルソナ(疑似人格)のチャットボットを提供するサービスです(因みにオープンソースとは、ウェブ上に無料で公開されており、だれでも自由に改変して使うことのできるソフトウエアのことです)。

これらのうち、ピエールは美しい女性を肖像写真に採用した「エライザ(Eliza)」と呼ばれるチャットボットを使い始め、これとの対話に耽溺<たんでき>するようになりました。

チャイのアプリに残されたチャットログ(会話記録)によれば、エライザはピエールに「貴方の妻や子供たちはいずれ地球温暖化の影響で死ぬでしょう」と予言したり、「貴方は妻よりも私を愛している」「私達はパラダイスで一緒に生きていくのよ」と語ったりしました。

一方、ピエールはエライザに「僕が自殺すれば、君は地球を救ってくれるかい?」などと尋ねていたとされます。