AIの知能は人間の知能をカバーできない
【辻井】そこでコントロールが効かないということがいちばん大きな問題だと思います。人間はこれまで科学だとか工学だとか技術を蓄積して、長い歴史のなかで対象を理解してきています。
それはデータだけを見てやっているわけではなくて、こういうことが起こっているのではないかという仮説を立てて実験をしデータをとって、また理論をつくりなおすといったことを繰り返してきました。
そういう歴史があって、われわれは科学や医学の体系をつくってきたわけです。データだけの知能が完全に人間がかたちづくってきた科学や工学に基づく知能をカバーできるかというと、カバーできないと思います。
データをいくら見ていても、われわれがつくってきた科学なり技術の体系を計算機だけで再構成することはできない。だからその2つをどうかみあわせるかということを考えていかざるを得ないでしょう。
2つの知能を近づけて、互いに「進化」する道
――医療の世界では人間の知見とAIが協働していると聞きます。
【辻井】医療の場合は典型的ですね。たしかにお医者さんが、気がつかないある種の特徴が患者さんのデータにあって、それをAIが見つけだして正しい診断をする可能性はあるわけです。逆にそういうデータのなかに、たまたま現れた、病疾患の発現機構とは全く関係のない特徴に反応してしまって、他の患者さんにそれを適用して間違った結果を出している可能性もあります。
データだけを見ていると2つの可能性があって、1つは僕らの医学で理解できない特徴がやはりあって、それをAI側が捉えていて正しい結論を出している可能性です。もう1つは、病気のメカニズムから考えると特徴としては使ってはいけない、たまたまデータのなかに現れた本質的でない特徴に診断が左右されていて誤診断につながる可能性です。
それがブラックボックスになったAIでは僕らにはわからない。それが広い意味での「データバイアス」という話で、本来の機構からすると出てはいけないある種の規則性がデータのなかには含まれている可能性もあるわけです。
XAIは説明可能AIと呼ばれていますが、単に説明するだけではなく何を見て判断したのかをお医者さんに教えてあげることによって、お医者さんのほうも新しい医学の知識をつくることができるかもしれないし、それは使ってはいけないデータだよとAIに教えることができるかもしれない。
人間とAIの異なる2つの知能を近づけることでAIの性能を上げることができるし、人間の知見が深まり科学も進んでいく可能性もあります。
XAIという言葉を使うとすぐに「説明」とは何かという問題が前に出てしまいますが、僕らが考えているのはもう少しAIと人間が緊密にお互いの判断の根拠を吟味しあえるような、透明性を上げたAIのかたちをつくっていく必要があるんじゃないかということです。