女性や黒人を認識できない人工知能

ロンドン警察は詳細を明らかにしていないのですが、市民団体によればGAFAMの一角が提供した顔認識システムを試験活用していたのではないかと言われています。

そして、そのGAFAM内部で開発された顔認証の人工知能については、アメリカの議会を巻き込んだ別の問題提起がなされています。

問題提起をした人々がデモンストレーションとしてアメリカ議会の議員の顔認証をしたところ、そこそこの人数の議員が犯罪者かもしれないと誤認識されたのです。しかも議員が黒人であったり女性であったりするとエラーの率が大きくなる。どうやら人工知能が一番認識できないのは黒人女性らしいということが判明しました。

なぜそのような現象が起きたのか。

理由はその人工知能のアルゴリズムを開発したのが白人男性だったからだというのが有力な説明です。偏見のある人間が開発すると人工知能はその偏見を受け継いだまま育つ。

取り込むデータ次第で頭の良しあしが変わってしまう

人工知能にはこの偏見の問題とは別に、もう一つ別の問題が存在します。学習するデータの量と質次第で、同じアルゴリズムで設計した人工知能でも頭のいい人工知能に育つ場合と頭の悪い人工知能に育つ場合が生じてくるのです。

わかりやすく説明すると、こういうことです。

広告配信をコントロールする人工知能を開発するとします。アルゴリズムが同じ人工知能の片方をフェイスブックが、そしてもう片方の人工知能をビッグデータとしては量が少ない日本のメディアが、それぞれのウェブサイトにアクセスしたユーザーの行動を学ばせて育てるとします。

1年後にその二つの人工知能を比較した場合、フェイスブックのビッグデータから学んだ人工知能のほうが圧倒的に頭が良く育っているはずです。

ここが人工知能とコンピュータプログラムが大きく違うところです。プログラムは設計者が描いた通りに作動するのですが、人工知能は同じアルゴリズムで作られたものであっても、機械学習に使ったデータ次第で性能が違って育ちます。

人工知能の性能を左右するものは、偏見のない設計思想と、学習するにふさわしい量のビッグデータなのです。