ホーキング博士らも「殺人ロボット」に強く反対
LAWSは「Lethal Autonomousu Weaponns Systems」の略である。人が命令を下さなくとも、自律的に敵を殺害する。「殺人ロボット」とも呼ばれ、世界中の科学者が禁止を強く訴えている。
なかでも昨年3月に死去したスティーブン・ホーキング博士は、2015年にテスラ創業者のイーロン・マスク氏やアップル共同創業者のスティーブ・ウォズニアック氏など1000人以上の有識者が署名した公開書簡で、「自律判断で活動するAI兵器は、火薬と核兵器に次ぐ『第3の革命』になる」と指摘して、開発禁止を強く訴えていた。
自律型ではないが、無人攻撃機となるドローンは、アメリカやイラン、イスラエルなどが爆弾を搭載し、実戦で兵器としてすでに使われている。実際、アメリカや中国は、AIによって自律的に飛行して目標物に接近、爆破攻撃を行う超小型ドローンを無数に飛ばす攻撃戦略を開発中という。
誤爆が避けられ、無差別攻撃がなくなる?
規制派と推進派の議論は激しさを増している。規制派は「AIに人を殺す権限を与えていいのか。規制が必要だ。テロにも使われかねない」という。推進派は「いや、高度な自律能力で誤爆が避けられ、無差別攻撃がなくなる」という。双方の意見は大きく分かれている。
ここで断っておくが、沙鴎一歩はLAWSに反対である。理想論かもしれないが、戦争そのものをなくすことこそ、必要だと信じている。ロボット兵器を開発する前に、まずは「鉄腕アトム」のように人を守るロボットを開発すべきだ。言い換えれば、AIのアルゴリズムに人に危害を加えないという倫理感を盛り込む必要がある。それができない段階で、自律型のロボット兵器を開発することは拙速ではないか。
「人間の意思が介在しない状態で、人工知能(AI)が自律的に判断し、敵を殺害する。そんな兵器システムが実用化されれば、戦闘の形態が一変しかねない」
こう書き出すのは、8月23日付の読売新聞の社説である。