優秀でも倫理的でない開発者は排除される
これからの10年で、IT技術者は程度の差こそあれ、誰もがAI開発者になる。AIは、問題解決の新たな方法を毎年教えてくれる開発者のテクニックのひとつになる。マイクロソフトでもこの大変動が全社的に起こり、AIの専門家の生み出すツールやテクニック、知識が民主化されて無数の開発者に行き渡り、公開したAI関連のツールとインフラが世界中の無数の開発者に使われ始めている。
開発者にはソフトウェアを安全で、安心で、手に入りやすく、高速で、安定性があり、使いやすいものにする責任があるが、AIによって責任はさらに増すだろう。
たとえばマイクロソフトでは、全員が1年に1回、ビジネススタンダードという講習を受ける必要がある。講習の項目のひとつに、自分の仕事が生み出す可能性がある法的、倫理的な問題をテーマにしたドラマ仕立ての動画の視聴がある。ストーリーには毎年調整が入り、AIが製品開発ツールとしてどんどん普及していることから、最近はAIの倫理に関するストーリーも追加した。
そこでは、天才的なアルゴリズムを組んだばかりのスターAI開発者が、廊下で仲間から祝福を受ける。アルゴリズムがデモで示した性能は、顧客の抱える問題を解決するアプローチとして、同僚がまさに探し求めていた画期的な手法だったからだ。
ところがそこで、開発者の元上司が、デモ結果があまりにも都合がよすぎることに疑念を抱き、みんなの前で開発者を問い詰める。モデルのトレーニングに使った顧客のデータはどこから手に入れたのか? 会社の法務や倫理に関する指針には従っていたのか? 徐々に雲行きが怪しくなり、開発者が墓穴を掘りつつあることを見ている側も察するなかで、本人もついに使用許可を得ていないデータを使ってトレーニングを施したことを打ち明け、バグを修正するためにもう一度使わせてほしいと訴える。しかし、データの不正利用という規定違反を犯した開発者に対して、仲間たちはノーと答える。この話のテーマは、道理に背いたAIは優れたAIではないということだ。
AI倫理問題の中心は「データ利用」
業界でも、学界でも、倫理的なAIの定義はまだ検討が始まったばかりの段階だ。しかし機械学習システムが尽きることのないデータ欲を持っていることを考えれば、AI倫理の中心はデータに関するものになるだろう。
この原稿を書いている時点では、欧州連合の一般データ保護規制が、プライバシーを尊重した透明な顧客のデータの扱い、また顧客にデータ利用の主導権を与えることの重要性を考える優れた規制の枠組みになる。マイクロソフトは、顔の写っている写真から本人を特定できるAIシステムをサポートしている。しかし、AI技術がプライバシーを侵害したり、個人の自由を損なう使い方をされたりする可能性がある以上、政府にはAIの適切な使い方を示し、規制を定めた法律をぜひ成立させてほしいと思っている。