AIが中国共産党にとって好ましくない発言をした
もう一つ興味深い事象について紹介しよう。
中国でも同様の対話型AIの実験が行われた。しかし、中国共産党にとって対話型AIが好ましくない発言をしたため、システムが強制的にダウンさせられるという事態が発生している。
システムダウンの理由は、中国経済の危機的状況などについて、AIが馬鹿正直に回答しすぎたからと噂されている(法令違反という理由以外、公式にはシステムダウンの理由は判明していない)。
この中国版対話型AIで興味深かったことは、政治的な核心に迫る話題については、AIが極めて不自然な応答を返していたことだろう。
その内容は、中国共産党や習近平に関するものが主であったが、極めて短文の応答文や、不自然な礼賛文などがアウトプットされていた。
これがすべてではないものの、政府が本当に重要だと判断した文言の分析にはフィルタリングをかけられるのではないか、という疑惑が投げかけられるに十分な証拠となった。
AIは大衆の感情を軽視する
以上は、非常に興味深い現象ではあるものの、筆者は「AIが主張する政治的価値観の賛否」自体にはあまり興味がない。
筆者が注目しているのは「どのような人物の言論がAIのアルゴリズムで集積されやすいか」である。
特定のフィルタリングがない限り、AIが収拾できる言語データは知識人のものとなる可能性が高い。なぜなら、多くの文章データは知識人によって作られているからだ。
彼らの文章データは一定の論理性を有しているため、多くの知識人が抱いているリベラルな価値観がAIのアルゴリズムに収拾されやすくなる。
その逆に、論理的な文章を必ずしもアウトプットしているわけではない大衆の感情は、往々にして軽視されることが想定される。
これは社会主義者が目指したある種の理想社会に近い状況を創り出す可能性があると言える。
AIに法律を作らせ、社会を運営させた場合、全知全能の人間「哲人」、つまり独裁者的なAIによって社会が管理されるに等しい状況が生まれることになる。