※本稿は、池上彰『知ら恥ベストシリーズ1 知らないと恥をかく中国の大問題 習近平が目指す覇権大国の行方』(KADOKAWA)の一部を再編集したものです。
犯罪予測AIを失敗させた白人警官の偏見
最近、アメリカで大きな問題になっているのは犯罪予測システムです。アメリカのペンシルベニア州の小さな町で導入しました。
町のどこで、何曜日の何時ごろ、ひったくりがある、あるいは強盗があるなど、どのような犯罪が起きているかを調べてデータを入れていきます。すると一定のパターンが出てきます。
たとえば「金曜日の夜11時ごろ、このあたりでひったくりが多い」といった予測ができるようになったのです。ビッグデータが犯罪予測を可能にしたというわけです。
その分析結果に基づいて、犯罪が発生する確率の高い地域・曜日・時間帯に重点的に警察官を配置しておけば犯罪の防止につながります。
ところが、警察官の多くは白人です。白人の警察官の中には一定の“偏見”を持っている人がいます。「悪いことをするのは黒人だ」と、どこかで決めつけているのです。
黒人の若者を見つけると片っ端から職務質問していきます。すると、たまたまマリファナを持っている黒人がいたりします。
「黒人の犯罪率が高い」というデータが捏造されている
こうして白人の警察官は、次々に黒人を逮捕していきました。結果的に「黒人の犯罪率が上昇する」というデータができあがってしまいました。ますます黒人が疑われ、留置場に入れられる事態になってしまったのです。
犯罪予測システムを導入し、データを見て分析をする。これ自体は悪いことではありません。しかしアメリカ社会での、「白人の警察官の偏見」という要素を計算に入れていなかった結果、本来なら捕まえる必要のなかった黒人たちが次々に逮捕されることになってしまいました。
これがいかに危険なことか。データを蓄積し、ビッグデータを用いて犯罪を防ぐ。そういう技術だけでは不十分なのです。いわゆる「社会」がそもそもどうなっているのかを知ること、これもまたとても大切なことなのです。
人間を知る、社会を知るということは、AIには不可能です。