人間の「理解のかたち」をAIに埋め込むと…
【辻井】もう1つは、AIの構成そのもののなかにもっと人間が持っている理解のかたちを埋め込んであげて、AIのアーキテクチャーの設計そのものにわれわれの科学や工学がつくりあげてきた理解の体系を投影するやり方があります。
たとえば、いろんな有機化合物の化学式からどういう性質を持つ物質なのかを予測するAIをつくろうというときに、1つは化学式と物性値のデータをたくさん集めてその間を深層学習のモデルでつないであげるというend-to-endのやり方が考えられます。
化合物の化学式の物性値のあいだに何か規則性があるんだけれど、その規則性をデータだけから学習させようという方法です。現在のAIはこうしたend-to-endのやり方が多いわけです。
一方で、われわれ人間には物理学の知識もあるわけですから、物性科学者は何が起こるとどういう物性値が出てくるのかという機構も理解しています。それを深層学習のモデルのなかに再現してあげるというやり方も考えられます。
end-to-endではないかたちの深層学習のモデルをつくるという研究をしているグループがあって物理的に規則性が判明している層を道標のようにAIのモデルのなかに置いてあげる。そうすることで、深層学習でも大きなネットワークは必要なくて小さなモデルで計算が可能になり、また外挿能力、言い換えると演繹能力の高いAIをつくることができます。
演繹的なものと帰納的なものの融合が起きる
――人間の知見を埋め込むわけですね。
【辻井】そうすると演繹性が出るんですね。end-to-endでやっているときだと、低分子の有機化合物の物性値はデータもたくさんあるので当たるのですが、高分子になるとデータが非常にスパース(まばら)になるわけです。
いろんな分子がいろんなかたちで重なりあって大きめの分子をつくるので、そこはもう千差万別の化学式があり、そのデータをすべてとるというのはほとんど不可能になります。大きなネットワークで学習していると、低分子では当たるんだけど高分子になると全然当たらなくなるんですね。
ところが前述したような道標を入れてあげると演繹性も出て、高分子でもかなり当たるようになります。結局どういうことかというと、物理学が蓄えてきた知識を深層学習のモデル設計のところに入れてあげると、全体としてよりいいシステムができるということです。
そういう話は今いろんなところでやられていると思います。専門的な知識をAIのシステムのなかに入れ込んでいくというのも1つの方法として浸透していくでしょう。