「美空ひばりAI」「レンブラントAI」は不謹慎なのか

【江間】現状のAIはまだそのレベルではないということを前提とした上で、あえて踏み込みたいと思います。人間は社会的な生き物ですし、技術には目的がなければいけません。だから、社会性のあるAIを作ろうとするなら、技術の構想や開発の段階から社会との関係性を考えておかないといけない。つまり倫理的な価値について設計の段階から考える必要がありますし、現行の法律や制度との整合性についても開発段階から考えていかなければならない。

東京大学特任講師の江間有沙さん
東京大学特任講師の江間有沙さん

【三宅】私は極めて東洋的な立場で、人工知能が生成的に生まれてくるものだとしたら、それらの生物が自分たちで倫理を作っていくというのがベストだと考えています。人工知能が自分たちで自分たちの倫理を策定する場合、一番重要なのは、この世界に対する理解だと思います。人間とは何か、生物とは何か、地球とは何か。それらを理解した上で、その倫理を守る根拠を共有する必要があります。

【江間】AIが自分たちで自分の倫理を作るとすること自体がまだそのレベルにないので、現状では技術者や研究者が代わりに考えていかなければならないと思います。そして、技術そのものではなく、社会とどのように接するかというインターフェースのデザインも重要です。

たとえば最近、「美空ひばりAI」とか「レンブラントAI」といった故人の能力を模したAIや、自分の親族など身近な人をよみがえらせるAIの在り方について鼎談をしました。そこで東京大学の松原仁先生は「49日で消えるようなインターフェースにすればいいと思う」と言われていました。AI研究者は、AIがどういう文脈で使われるものなのか、何の目的で使われるのかを踏まえたうえで、デザインすることが求められると思います。

「人間には自然や人工物を統治する責任がある」という西洋的発想

【三宅】人工物を限りなく人間に寄せて作ることの是非は、まさに本質的な議論が必要なところだと思います。オバマ前大統領のフェイク動画が話題になりましたが、画面越しに見るだけではフェイクなのか本物なのかわかりません。ドイツはすでにフェイクニュースやフェイク画像に非常に厳しい罰則をかけるようになっていますよね。これは、ヨーロッパには社会を人間がビルドアップしてきたというプライドがあるからだと思います。だから人工知能に関しても最初から厳しく規制して、安全を確保した上ですすめようとしています。

【江間】それは三宅さんがずっとおっしゃっている、キリスト教の根底にある考え方ですよね。人間には神の代理人として自然や人工物を統治する責任がある。そこには子供も動物も入ってくる。だからこそ責任問題もはっきりしています。ところが、境界が曖昧になると責任の所在とうまくつながらなくなってしまう。どこがどう責任を取るかも曖昧になってしまう。これは自律性を持ったAIを議論するまでもなく、自動運転をはじめ、もうすでに問題になっています。