単に制限をかけるのが得策だとは思えない

最後に、「アルファ・パースエイド(alpha persuade)」と呼ばれる人間を説得する人工知能についても一部で議論されています。人間を巧みに説得したり騙す人工知能ができると、それこそ振り込め詐欺やフィッシング詐欺が自動で行なわれるようになってしまいます。

本当の詐欺師ははじめ友達のふりをして、私利私欲を見せません。ある程度友好関係を築いたところで、相手を騙し、姿を消すのです。同じことを人工知能が行なえるようになれば、かなりまずい状況になることが想定されます。

【堀江貴文】現在のChatGPTには、あらゆる制限がかかっているはずだ。たとえば、ポリティカル・コレクトネスの観点から、人種差別につながる情報であったり殺人の仕方や爆弾の作り方などは尋ねても出てこないだろう。

しかし、私は単に制限をかけるのが得策だとは思えない。「こうなったら人は死ぬ」「こうしたら事故が起こる」という知識がないがために、大事に至ってしまうこともある。知識として知ることと、実際の犯罪を犯してしまうことはそもそも別問題だ。

AIには、まだわからないところもある。

しかし私は、わからないからといって規制することには、反対だ。恣意しい的に問題を分けるのではなく、すべてを民主主義のコントロール下に置いてしまったほうがいいと考えている。

ChatGPTを使用する人
写真=iStock.com/Bussarin Rinchumrus
※写真はイメージです

イーロン・マスクはなぜ開発に待ったをかけたのか?

脅威論といえば、2023年3月に、イーロン・マスクをはじめとする専門家や業界の関係者が、「社会にリスクをもたらす可能性がある」として、AIシステムの開発を6カ月間停止するよう共同声明を出した。

私は、今サービスを開始している企業に規制をかけるのは間違っていると思う。

下手に規制をすることで、地下でダークウェブならぬ、ダークAIを作る人が出てくるだけだ。

ダークなAIを開発することは現実的に可能だろう。武器の作り方を教えてくれるAIや、児童ポルノを自動生成するAIなどが、もうどこかで開発されているかもしれない。

AIの危険性をなくすために、すでにサービスを世に出している企業の開発を止めるのは、規制のかけ方として意味がない。ダークAIに対抗できるようなホワイトハッカー的なAIを進化させていったり、既存の犯罪者を取り締まるような枠組みで取り締まる必要がある。

先述のイーロン・マスクらの共同声明は、きれいごとを言いながらも、おそらく「出遅れたから、待ってもらおう」ということなのではないかと推測している。