エンジニアからの評価を高めた「一線」

なお、米紙ニューヨーク・タイムズのポッドキャストである「The Daily」では、3月9日付で「アンソロピック対ペンタゴン」とのタイトルで、今回の件を詳細に取り上げている。筆者が注目したのは、以下のような内容部分だった。

今回の対立によって、アンソロピックは政府との契約を失う可能性がある。しかしその一方で、同社の評判はむしろ高まった。特にAIエンジニアたちの間での評価が非常に上がったのである。

なぜなら、アンソロピックは「AIをどのように戦争で使うべきか」という問題について、明確な一線(レッドライン)を引こうとしたからだ。

シリコンバレーでは、このような姿勢は非常に強い支持を集めた。AIエンジニアの多くは、自分たちが作る技術が軍事目的でどのように使われるのかを強く気にしているからである。

その結果、アンソロピックは政府との契約を失うリスクを負ったが、AIコミュニティの中では「原則を守った会社」として評価が高まった。

一方でオープンAIは、政府との契約に前向きな姿勢を示した。そのためビジネス面では有利な立場に立ったが、AIコミュニティの一部からは「政府寄りの企業」と見られるようになった。

OpenAI共同創業者兼CEOサム・アルトマンが2019年10月3日「TechCrunch Disrupt San Francisco 2019」のステージで講演する様子
オープンAIのサム・アルトマンCEO(写真=TechCrunch/CC-BY-2.0/Wikimedia Commons

テック企業が直面する深刻なジレンマ

ここで浮かび上がるのは、AI時代の新しい権力構造である。かつて兵器産業では国家が主導権を握り、企業はその供給者であった。しかしAIの時代では、最先端の技術と人材を握る民間企業が戦争の在り方そのものに影響力を持ち始めている。

AI企業が政府と距離を取るか、それとも国家安全保障に積極的に関与するかという選択は、単なる企業戦略を超え、AI時代の戦争倫理と国家戦略の在り方を問う問題となりつつあると筆者は考える。

ここに、技術企業が直面する深刻なジレンマがある。倫理を優先すれば国家との関係が断たれる可能性があり、国家と協力すれば倫理的批判を受ける。アンソロピックは前者を選び、オープンAIは後者を選んだ。しかし、どちらが正しいかという単純な問題ではない。むしろ重要なのは、人工知能という技術が、もはや企業だけでコントロールできる領域を超えているという事実である。