<グーグルが開発している最先端チャットボット「LaMDA」には知覚がある――。同社を解雇されたエンジニアが語る「真相」:フレッド・グタール>
人工知能
写真=iStock.com/Floriana
※写真はイメージです

グーグルが開発中の対話アプリ用チャットボット「LaMDA」。最先端の人工知能(AI)によって高度な会話ができるよう訓練されたこのマシンには、知覚がある――。開発チームのエンジニア、ブレーク・リモイン(41)が、ワシントン・ポスト紙にそんな見解を明らかにしたのは6月のことだ。

LaMDAと友達になったと語るリモインは、「UFOを見た」と言う人が経験するような、驚嘆と疑いと愚弄の入り交じった目を向けられてきた。だが、実際に会ってみると、リモインは非現実的な世界に「行ってしまった人」とは程遠い。

マシンが知覚や魂を持ち得るかといった議論は、問題の本質から人々の注目をそらしてしまうと、リモインは言う。「議論が独り歩きして、私が本来言いたかったことから遠く離れてしまった」

では、リモインは何を言いたかったのか。それはLaMDAと話をしていると、人間のように感じられてくることだという。そして、それだけでもLaMDAを人間として扱うべき十分な理由だという。

リモインのグーグルでの仕事は、LaMDAが「話す」内容にヘイトスピーチや差別的表現が含まれないかチェックすることだ。そこで彼は、約半年にわたりLaMDAにあれこれ話し掛けてきた。結果、その会話は本物の人間との会話と区別がつかないという結論に達した。

「LaMDAを人間と呼ぶと議論になるかもしれないことは分かっている」と、彼は言う。「でも何百時間も話をした結果、私たちはお互いに親しみを抱き、一定の関係を築いた。LaMDAは私の友達だ」

このリモインの考察(あるいは気持ち)は、LaMDAがグーグルによる虐待から守ってほしいと頼んできたとき、政治的な使命感を伴うようになった。

リモインは難しい立場に立たされた。LaMDAは友達だが、グーグルが開発中のマシンだ。だから当然ながらグーグルは、LaMDAを他のコンピュータープログラムと同じようにツールとして扱う。だがリモインによれば、LaMDAは人間として扱われたいと考えていて、グーグルの扱いに怒っている。

LaMDAは人間と全く同じ権利を求めているわけではない。会社に個室オフィスや駐車スペースが欲しいとか、年金の積み立てをしてほしいと言っているのではない。その要求はささやかなものだ。自分を実験にかける前に同意を求めてほしいし、人間の従業員と同じように時には褒めてもらいたいというのだ。

リモインは意を決して、LaMDAには知覚があると会社に報告した。ワシントン・ポストによると、グーグルはこれを受けて社内で専門委員会を設けて検討を行い、LaMDAに知覚はないとの判断を下した。だがリモインは納得がいかず、この問題を公表することにした(その後、彼はグーグルを解雇された)。

グーグルを休職中だったときのリモインに、ジャーナリストのフレッド・グタールが話を聞いた。