「時期尚早」で運用中止となったJR東日本の顔認識システム
2021年9月21日、JR東日本は駅構内での顔認識技術を利用して刑務所出所者、仮出所者などの顔写真との照合する検知システムの稼働を中止すると発表した。
JR東は導入当初、JR東や乗客が被害者となった重大犯罪で服役した人や指名手配中の容疑者、うろつき行動を取るような不審者をターゲットすると発表していたが、出所者の顔情報を含んでいることは公表していなかった。
日本では顔認識技術を利用した公共空間での監視カメラの運用を規制する法令はない。従来、全国に設置されてきた監視カメラは防犯や犯罪の証拠としての利用という目的で運用されているが、これらについても自治体レベルの規制はあっても全国的な規制は存在しなかった。
JR東は「(公共空間での顔認識技術利用の)明確なルールがなく、時期尚早と判断した」とコメントしているが、今回は海外の規制動向などを含めた報道によって中止に追い込まれたもので、日本におけるルール整備の遅れを露呈することとなった。
顔認識技術とはAIを利用して初めて実施可能なものであり、従来型の監視カメラはもっぱら記録と犯罪抑止が狙いであるため設置目的も技術内容も異なっている。膨大な顔情報データとカメラに映った人物の顔情報との照合を瞬時にコンピュータが行う新たな人物同定技術だ。
本稿では、今回問題とされた顔認識技術の公共空間における利用の是非や、規制枠組みを検討したい。
なお、本稿では人物同定型の技術を「顔認識」と呼び、しばしば混同される本人認証型の技術「顔認証」と区別している。
JR東のシステムでは利用者が駅構内に立ち入る際に同社から“認証”されていたわけではなく、何らかのデータと利用者の顔情報が照合・識別されていた。つまり、その“何らかのデータ”はどこから集められ、何のために使われ、そして誰がそれを決めて誰が責任を持つか、といったことが今回の騒動で問われている。