悪人を理解させると、AI自体が悪人になるかもしれない

悪人もいる世界できちんと振る舞えるようになるには、悪人の行動も理解しておかなければいけません。そのためAIにも、悪人のシミュレーターのような内部モデルが必要ではあるのですが、それがために、何かをきっかけにAIが悪人になってしまう可能性は拭い切れません。

脳科学者の茂木健一郎さん
脳科学者の茂木健一郎さん(出所=『ChatGPT vs. 未来のない仕事をする人たち』)

人間だって善悪ということではなくても、「夫婦別姓」に賛成であっても、「日本の伝統に反しているから反対だ」と言う人の心の働きはわかるので、何かのきっかけで考えが変わる可能性がある。これと同じようなことがAIでも起こることが段々と研究でわかってきました。

先ほどワルイージ効果について触れましたが、パラメーター次第で、はなから悪性のAIを作ることだって可能なわけです。たとえば、特定の人間を攻撃するためのAIが作られてしまう可能性も懸念されます。なんといってもネット上のほぼすべての情報を知っていますので、いわゆる「黒歴史」だってすぐに見つけてしまうはずです。

同様に、今、危険性が指摘されているのが、AI自体がネットに情報を直接書き込めるようになること。GPT-4の性能を持つAIがネットに自分で書き込めるようになれば、いくらでも偽情報を広げ、世論操作さえ可能になってしまいます。

AIが陰謀論を生み出す可能性も

「ガスライティング(gaslighting)」という言葉を聞いたことがあるでしょうか。ガスライティングは心理的虐待の一種で、故意に誤った情報を提示することで、被害者自身の認識を疑うように仕向ける手法のことです。ようするに、偽情報によって被害者自身に、自分が悪いと思わせるわけです。

たとえば今、ロシアとウクライナが戦争をしていますが、ウクライナの人たちに「ウクライナがかつて間違ったことをやったのだから、ロシアに攻められても仕方がないんだ」と思い込ませるのもガスライティングの一種です。なんらかの規制をしない限り、人工知能は容易にガスライティングできてしまいます。

最近は陰謀論のようなものが取り上げられるようになりましたが、その中にAIというプレイヤーが加わってくる可能性もあります。私たちが気づかないうちに、すでにAIによって、私たちが見ている世界が操作されている可能性だってある。AIの普及とともに、何が現実なのかわからない時代になりつつあるのではないでしょうか。

AIはアーティフィシャル・インテリジェンスの略ですが、007のような諜報ちょうほう活動もインテリジェンスと呼ばれます。そのあたりの事情に疎い日本にとっては、ちょっとまずい状態になる恐れはあるのかもしれません。