なぜAI企業は国防総省の要求を拒否したのか
2026年に入ってからの国際政治の動きを見ると、古代ギリシャの歴史家トゥキュディデスが『戦史』の中でアテネとメロスの対話を通して国家の行動原理を冷徹に描いた有名な言葉を想起させられる。
「強者はできることを行い、弱者は耐えねばならない」
The strong do what they can and the weak suffer what they must.
国際政治の世界では、正義は互いの力が対等な場合にのみ意味を持ち、強い国は自らの力の範囲で行動し、弱い国はそれに従わざるを得ない――その厳しい現実を示した言葉である。
この古典的な洞察は、2000年以上を経た現在もなお、国際政治の冷徹な現実を鋭く照らしている。そしていま、この命題が、人工知能という新しい技術をめぐって再び現実の問題として浮かび上がっている。
現在、世界で起きている人工知能をめぐる出来事は、単なるテクノロジー企業同士の競争ではない。国家安全保障、企業の思想、そして人類文明の倫理が正面から衝突する、これまでとは次元の異なる局面に入り始めている。
発端となったのは、米国防総省とAI企業Anthropic(アンソロピック)の対立である。国防総省は同社のAI「Claude(クロード)」を「あらゆる合法的な軍事活動」に利用できるよう求めた。しかし、アンソロピックはこれを拒否した。自律型兵器や大規模監視への転用リスクを排除できない包括的な許可には応じられないという判断だった。
一企業が「国家安全保障上の脅威」として扱われる
結果は苛烈だった。米政府は同社を「サプライチェーン上のリスク」に指定し、米軍と取引する企業との商業活動を事実上禁じる措置に踏み切った。AI企業が国家安全保障上の脅威として扱われ、市場から排除されるという、かつて想定されていなかった事態が現実に起きたのである。
一方で競合するOpenAI(オープンAI)は国防総省と合意し、米軍の機密システムでAI技術を運用する枠組みを整えた。人工知能はすでに軍事情報の分析、標的候補の特定、戦闘シミュレーションなどに使われ始めており、戦場の意思決定の中枢に組み込まれる段階に入っていると報じられている。AIが兵器の一部としてではなく、戦争の判断そのものに関わる「頭脳」として機能し始めているという事実は、我々が想像している以上に重い意味を持つ。
さらに、この問題は単なる企業競争にとどまらない。シリコンバレー内部では、人工知能をめぐる思想的対立が表面化している。
アンソロピックの創業者たちは、AIが人類文明に与える長期的リスクを重視する「効果的利他主義(Effective Altruism)」の影響を強く受けており、軍事利用や監視社会への転用を強く警戒してきた。一方で、国家安全保障との協力を重視する企業も増えている。技術の優劣だけでなく、倫理、政治、そして安全保障の立場が企業の運命を分ける時代に入ったのである。

