AI開発はこれまで、学習するデータ量と計算能力を増やすことで、指数関数的な性能向上が得られるとされてきた。しかし、Googleをはじめとする各社で、次世代AIモデルの開発において収益逓減が見られ始めている、と記事は指摘する。
収益逓減とは、投入するリソースを増やしたにもかかわらず、成果がほぼ頭打ちとなる状態を指す。この「壁」の存在により、次世代の主要AIモデルが現行モデルから飛躍的な進化を遂げるという従来の未来予想図に影が差し始めた。そこで求められているのが、ChatGPTの延長線上にない、まったく新しい生成AIの姿だ。
グーグル系研究機関が「人格コピーAI」を発表
このように既存の生成AIに限界説が囁かれるなか、注目すべき新たなモデルが発表された。ユーザーの問いに答えるだけのChatGPTとは異なり、本人に代わり、本人の価値観で物事を判断するAIエージェントだ。まだ研究段階だが、査読前の論文として公表されている。本人の思考を85%の精度で真似られるという。
マサチューセッツ工科大学が発行する科学技術メディアのMITテクノロジー・レビューは11月20日、「AIがあなたの性格を再現できるようになった」と報じている。ここで取り上げられているのが、スタンフォード大学と、Google系列のAI研究機関であるGoogle DeepMindによる新しい研究だ。「2時間のインタビュー」を受けるだけで、思考パターンをAIモデルとして構築。「あなたが下すであろう決断を、(AIが)実際に下す」ことが可能になったとされる。
2時間程度のインタビューで85%の精度で再現
研究チームが発表した論文によると、研究ではアメリカの一般市民1052人を対象に、2時間程度のインタビューを実施した。年齢や性別、人種、地域性などを考慮して対象者を選定し、1人あたり平均6491語に及ぶ詳細な回答データを収集した。これらのデータを大規模言語モデル(LLM)で分析することで、各個人の考え方や行動パターンの再現が可能になったとしている。
システムの精度を検証するため、チームは社会学の標準的な調査手法であるアメリカの「総合的社会調査(General Social Survey)」を用いた実験を行った。その結果、AIは実際の回答者が2週間後に同じ質問に答えた際の一致率と比較して、85%の精度で回答を予測することに成功したという。
また、性格診断として知られるビッグファイブ検査では80%の一致率を示し、経済的な意思決定を分析する実験でも66%の精度を達成。さらに、5つの社会科学実験のうち4つで人間の被験者と同様の結果を再現し、その効果の大きさは実際の人間の結果と98%の相関を示したという。
(補足:総合的社会調査における精度算出の詳細……同じ人間が2週間後に同じ調査に回答した場合でも、機械のように同じ回答をするわけではなく、一致率は平均81.25%となる。そこで、この誤差までであれば本人による回答の範囲内とみなす。生成AIエージェントの予測精度は68.85%であることから、人間の自己一致率81.25%に対して約85%の精度となる。なお、総合的社会調査に完全にランダムに回答した場合、各設問に偶然に一致する確率は平均27.03%に留まる。)