なぜAIは株式市場を予測できないのか
――データの話題が出るとよく言われることですが、データで株式市場を予測しましょうという試みも何度も繰り返してきましたが、必ず失敗します。株式市場が自己言及的になっていて自分たちの判断がデータのなかに織り込まれるので、どんどんデータそのものが変質していくことが起きるわけですね。
先生が言われている理解不能なAIも、AI自体がつくりだしたデータがAIそのものを変化させていくという意味合いもありますよね?
【辻井】それはありますね。判断する側と判断される側が離れている、主体と客体として完全に離れているときはいいんですけど、社会現象の多くは判断主体も社会のなかに組み込まれていて、お互いに影響を及ぼしあう構造になっています。
そういう問題はまたもう一段難しくなってきますね。経済現象というのはまさにそういう構造になっているんだろうと思います。
もともと複雑な判断というのは説明しにくい話なんです。同じデータを見ていても違った判断になるということはいくらでもあるわけです。だから「説明できない」というのは、必ずしもAIの持っている欠陥ではなく、ひょっとすると複雑な判断というのは本来的にそういう性質を持っているんだと思います。
人間同士なら複雑な判断でも合意できる
【辻井】いろんなファクターが複雑に絡みあっていて、それをどういうふうに判断するかというのは判断主体の価値観にもかかわる話でもあり、AIだけがうまくできないのではなく人間の場合もうまくいかないわけです。
僕らでも、何かある複雑な判断をしたときに、この判断の根拠を説明してくださいといわれると、どんなに説明しても説明しきれないようなケースはいくらでもあるわけです。
ただAIと人間が違うのは2つの違う判断をした主体があったときに、人間同士の場合には、それぞれの判断過程を部分的にでも外化して相互に吟味しあうことができるところです。僕はこういうところを見てこういう判断をしたという根拠を相手に言って、相手はそれに対してまた違う根拠を見せる。
おそらく、複雑な判断というのは、いろんな根拠がある重みづけをもってホリスティックに決まってくるのだと思うのですが、そこを系統立てて説明するのは非常に難しい。説明不可能な領域というのはいっぱいあるわけです。
そこでお互いにその判断が信用できるというのは、根拠を出しあって議論することで妥当な判断であるという合意ができるからです。あるいは価値基準が違うから違った判断になるんですねというかたちで、判断が分かれるのを認めあうことも人間の場合にはある程度できるわけです。