核戦争を回避したのは「人間の判断」だった

その結果、戦争の判断は急速に加速する。

最も現実的なリスクは、誤認識によって戦争が始まる可能性である。歴史を振り返れば、核戦争の瀬戸際は何度も存在した。冷戦期には、ミサイル警報システムが誤作動し、核攻撃と誤認された事例が複数ある。そのとき最終的に核戦争を回避したのは、人間の疑念や直感だった。警報が鳴っていても、それが本当に攻撃なのかどうかを疑う余地が人間にはあった。

その象徴的な事件が、1983年に起きたソ連の核警報事件である。当時、ソ連の早期警戒システムは米国からの核ミサイル発射を検知したと報告した。警報は司令部に届き、システムは米国による先制攻撃の可能性を示していた。もしその判断がそのまま受け入れられていれば、ソ連は核報復に踏み切っていた可能性がある。

しかし、そのとき当直士官だったスタニスラフ・ペトロフは警報を疑った。システムは誤作動かもしれないと判断し、報告を保留した。結果として、この警報は人工衛星の誤認識による誤作動だったことが後に判明する。冷戦史研究者の多くは、この事件を核戦争に最も近づいた瞬間の一つと指摘している。

核戦争を未然に防ぎ「世界を救った男」と呼ばれたスタニスラフ・ペトロフ(2016年)、旧ソ連防空軍元中佐
核戦争を未然に防ぎ「世界を救った男」と呼ばれたスタニスラフ・ペトロフ(2016年)、旧ソ連防空軍元中佐(写真=Queery-54/CC-BY-SA-4.0/Wikimedia Commons

重要なのは、最終的に核戦争を回避したのが人間の判断だったという点である。警報システムは攻撃を検知したと判断していたが、人間はそれを無条件に信じなかった。

AIが早期警戒システムに組み込まれたら…

しかしAIが早期警戒システムの中枢に組み込まれるようになれば、この構造は変わる可能性がある。AIは膨大なデータを高速で処理することに優れているが、統計的パターンから結論を導くという特性を持つ。もしAIがミサイル発射の兆候を検知したと判断すれば、その結論は人間よりもはるかに速く提示される。そしてその判断が自動化された防衛システムや報復システムに接続されていれば、誤認識が連鎖的な軍事行動を引き起こす可能性がある。

この問題はすでに現実の戦場でも議論され始めている。例えばイスラエル軍がガザで使用したと報じられているAIターゲティングシステム「Lavender」である。報道によれば、このシステムは通信データや行動パターンを分析し、武装組織の関係者とみられる人物を自動的に抽出するために用いられた。AIが提示した候補リストをもとに、人間のオペレーターが攻撃判断を行う仕組みだったとされる。

ここで重要なのは、AIが直接攻撃を決定したかどうかではない。問題は、AIが提示する候補リストの規模と速度である。数万人規模のデータからAIが瞬時にターゲット候補を抽出すれば、人間が一件一件を精査することは現実的に不可能になる。結果として、人間の判断はAIの提案を確認するだけのプロセスに近づいていく。