「境界線」を引くのは人間の責任である
こうした変化は軍事思想にも表れている。米軍では近年、「Algorithmic Warfare」や「Joint All-Domain Command and Control(JADC2)」と呼ばれる構想が議論されている。これは陸海空宇宙サイバーのすべての戦場情報をAIで統合し、意思決定の速度を飛躍的に高めるという軍事構想である。
AIが戦場のデータを統合し、最適な行動を提示する。指揮官はそれをもとに瞬時に判断を下す。戦争は、人間の思考速度ではなく、アルゴリズムの処理速度に近づいていく。
このとき最も恐ろしいのは、AI同士の判断が互いに反応し合う構造である。もし複数の国家が同様のシステムを導入すれば、誤認識や誤警報が瞬時に連鎖し、衝突が急速にエスカレートする可能性がある。
安全保障研究者の間では、こうした事態を「フラッシュ・ウォー」と呼ぶこともある。偶発的な誤認識が、AIによる高速な判断連鎖によって拡大し、全面的な軍事衝突へと発展する可能性である。
AIが戦争を始める未来を完全に排除することは難しいかもしれない。しかし、AIがどこまで戦争の判断に関与するのかという境界線を引くことは、依然として人間の責任の範囲にある。
そしてまさにその境界線をめぐって、いま世界で激しい対立が起きているのである。
第3章:「AI文明の統治原理」をめぐる衝突
オープンAIとアンソロピックの対立は、単なる企業同士の競争ではない。それは、人工知能という新しい文明技術を、どの原理で統治するのかという根源的な問いの衝突である。
アンソロピックの創業者たちは、いわゆる「効果的利他主義(Effective Altruism)」の思想に強い影響を受けている。この思想は、科学的合理性を用いて人類全体の幸福を最大化しようとする哲学であり、とりわけ人工知能がもたらす長期的な文明リスクに強い関心を持っている。
AIが制御不能な形で進化すれば、人類社会そのものが深刻な危機に直面する可能性がある。だからこそ、AIの開発と利用には明確な倫理的境界線を設けるべきだというのが彼らの基本的な立場である。
今回、アンソロピックが米国防総省の要求を拒否した背景にも、この思想がある。国防総省は、同社のAIを「あらゆる合法的な軍事活動」に利用できるよう求めた。しかしアンソロピックは、こうした包括的な許可が自律型兵器や大規模監視への転用につながる可能性を排除できないとして拒否した。
AIという汎用技術は、一度包括的な利用許可が与えられれば、用途が際限なく拡張していく性質を持つ。だからこそ、彼らはその境界線を曖昧にすることを避けようとしたのである。
しかし国家の論理はまったく異なる。国家にとって最優先されるのは倫理ではなく安全保障である。人工知能が軍事力を左右する時代において、その利用を拒否する技術は国家にとって弱点になり得る。もし一つの企業が軍事利用を拒否しても、別の企業が同じ技術を提供すれば問題は解決してしまう。実際、アンソロピックが拒否した直後にオープンAIが国防総省と合意したことは、この構造を象徴している。

