人間が戦闘を管理できなくなる可能性
見出しは「AI兵器の規制 攻撃判断を委ねるべきでない」で、「技術の急速な進展に伴う予想外の事態をいかに防ぐか。各国が議論を深め、現実的な規制に向けて歩み寄ることが重要である」と訴える。
読売社説はAI兵器に否定的だ。さらにこう指摘する。
「人間が遠隔操作するドローンなどの無人兵器とは異なり、攻撃の責任の所在が不明確になりかねない。人間が戦闘を管理できなくなる可能性が懸念される」
「そもそもAIに生殺与奪の権利を握らせるべきでない、という主張もある。国際人道法や倫理面でLAWSが多くの問題点をはらんでいるのは明白である」
「攻撃の責任の所在」「生殺与奪の権利」「国際人道法と倫理面」。読売社説が指摘するように、LAWSにはまだ問題が多すぎる。その意味では核兵器と同じである。だから沙鴎一歩はLAWSに反対なのだ。
アメリカとロシアをルール作りに引き込む必要がある
読売社説は「今回の報告書を土台にLAWSの開発や運用で実効性のあるルールを作れるかが課題となる」とも書き、こう主張する。
「例えば、規制の対象を、人間を直接殺害するよう設計された兵器システムに限る。攻撃の際、司令官の許可を得るプログラムを組み込むことで、『決断する人間の介在』を担保する。こうした具体案の議論を深める必要がある」
LAWS推進派の国が力を持つなかで、読売社説の主張する具体的な規制策は現実的な方法かもしれないが、結局は付け焼き刃にすぎない。やはりLAWS廃止が正しい。
読売社説は訴える。
「米露をルール作りに引き込み、AI兵器の透明性や各国間の信頼を高めることが大切だ。一方で、民間のAI技術の研究・開発が、軍事転用の可能性を理由に規制されることは防がねばならない」
国際会議では、力のあるアメリカやロシアをうまく巻き込むことは当然だし、「デュアルユース(民軍両用)」の問題も、常に念頭において議論する必要がある。