ちいさな「自分の分身」が、少しのインタビューで手軽にできる
研究に携わったスタンフォード大学コンピューターサイエンス学科の博士課程学生、ジュン・ソン・パーク氏は、MITテクノロジー・レビューの取材に対し、「小さな『あなた』たちが動き回って、あなたが下したであろう決定を実際に下すことができる。究極的な未来がここにあります」と語っている。
研究チームは目下、多数のAIエージェントを用意することで、大人数を対象にした社会調査を再現するなどの用途を想定している。費用や倫理的な制約から、大人数の人間を対象に実施することが難しい研究がある。こうした研究で人間の代わりに、AIエージェントに回答させるよう開発された。
具体的には、ソーシャルメディアにおける誤情報の拡散の仕組みを解明して対策したり、あるいは道路上で渋滞を引き起こす行動などをより容易に検証したりなどに応用できるという。より発展的な利用法として、将来的には各個人の経験と価値観を反映し、業務上の判断を自動化するなどにも応用できるだろう。
学習の手軽さも利点だ。AIを活用したデジタルツイン作成企業タバスのハサーン・ラザ最高経営責任者は、従来の方法では大量のデータが必要だったものの、「今日30分、明日30分などと、AIのインタビュアーと話すだけで、自分のデジタルの分身を作ることができます」と、新手法の効率性を評価している。
完成度が高まればディープフェイクへの悪用懸念も
英テクノロジーメディアのテック・レーダーは、「人格は数値化できないように思えるが、この研究により、一定の質問への回答から、比較的少ない情報量で個人の価値観を抽出できることが明らかになった」と有用性を評価。「少なくとも管理された実験環境においては、AIは人格を説得力のある形で模倣することが可能だ」と結論付けている。
もっとも、AIで人間の「分身」を作成するこの技術に関しては、倫理上の懸念もある。
MITテクノロジー・レビューは、生成AIによる偽の画像や動画「ディープフェイク」の作成が容易になったのと同様に、この技術により個人の同意を得ることなく、他者をオンライン上で模倣することが可能になる危険性があると述べている。
英テクノロジーメディアのテック・レーダーは、新技術が比較的短時間で個人の性格を模倣できる点に注目し、「オンラインで他人になりすますツールとして、詐欺師たちが活用する恐れもある」と指摘する。
このような懸念はあるものの、新たな生成AIの方向性として、個人の人格を再現するモデルの有用性は高いと言えるだろう。
意外に手間がかかる現行型AI
現在開発中の技術と組み合わせれば、日々のタスクをほぼ完全に自動化する道も見えてくる。
ChatGPTなど現行の生成AIは、ユーザーからの指示待ちが基本だ。ユーザーが質問を投げかければ答えを返してくれるが、続く作業はユーザー自身が行う。AIを使っているはずが、意外にも手間が多いことに気づく。