AIが共感すると、ユーザの満足度が上がる

ある設定のシステムは、ユーザが「猫が好きです」と言ったのに、「私は猫が嫌いです」と言ったりします。別の設定のシステムでは、同じようなユーザの発話に対して「分かります。私も猫が好きです」と言ったりします。すると、共感するシステムのほうがユーザの満足度が高い結果に。また、面白いことに、システムの共感の回数が多いほどユーザの共感の回数が多い傾向が見られました。

つまり、システムが共感をすればするほど、ユーザも共感する傾向にあったのです。共感するということは、少なくとも相手を気に掛ける、相手がどう思っているのかを考えるということです。共感することにより、ユーザからのそうした行動を引き出しうることは、ユーザとの信頼関係を築く上で、極めて重要な結果です。

私たちが作った別の共感を行う雑談AIは、自身のエピソードを持っており、それに基づいて相手に共感を示します。旅行についての雑談を行うのですが、ユーザが「清水寺を見て京都が楽しかった」という内容の発言をすると、自身のエピソードに似た内容がないかを探します。そして、たとえば「銀閣寺を見て京都を楽しんだ」というエピソードがあったとすると、「私も京都に行きました。銀閣寺を見たのですが楽しかったです」といった応答ができます。

写真=iStock.com/tapanuth
※写真はイメージです

これは、単に同意や共感を示しているだけではなく、自身の経験に裏打ちされた共感です。このようにエピソードを持たせることによって、共感をより深いものにすることが可能です。

嘘っぽく聞こえる「発話の帰属」問題

ただ、気を付けなくてはいけないのはロボットや対話システムに本当に共感ができるのかという点。ここは対話研究者の中でもよく話題に上ります。たとえば、雑談AIが「コーヒーが好きです」と言ったとして、システムはコーヒーが飲めないわけです。なので、どうしても嘘っぽくなってしまいます。「京都に行ったのですが清水寺がきれいでした」と言っても、「ほんとかよ?」となります。

こういう問題を、発話が誰のものかという意味で、発話の帰属の問題と言ったりします。発話の帰属の問題があるために現状の雑談AIでは真の意味で共感ができていると言えないでしょう。

一部の対話システムではこの問題を避けるために、伝聞調を利用します。「ネットでおいしいと言っている人がいました」「京都に行った人が大変良かったと言っていました」のように話すというものです。このやり方は比較的ユーザに受け入れられることが分かっています。今のシステムはコーヒーを飲んだり自分の意志で京都に行ったりできませんが、将来的にはそのようなシステムも出てくると思います。そうすると、システムの共感もより人間に伝わるものになるでしょう。