人型ロボット「ペッパー」など、人間と会話できるよう開発されたAIは多い。だが、中には違和感のある回答をする場合がある。対話システムを研究している名古屋大学大学院教授の東中竜一郎氏は、「例えば、AIが『コーヒーが好きです』と話すと嘘っぽく聞こえる。これは共感することの難しさを端的に示している」と指摘する――。

※本稿は、東中竜一郎『AIの雑談力』(角川新書)の一部を再編集したものです。

お客から料理の注文を受けるソフトバンクのロボット「Pepper(ペッパー)」=2020年11月5日
写真=EPA/時事通信フォト
お客から料理の注文を受けるソフトバンクのロボット「Pepper(ペッパー)」=2020年11月5日

ロボットに感情を持たせることはできる?

ペッパーがリリースされた際、感情を理解することができると大々的にアピールされていました。また、りんなもユーザと感情を伴った交流ができることを特徴としています。人間らしいロボットの話題になると、多くの人は「感情を持っているロボット」を想像するようです。多くの人は「あの人はロボットみたいだ」と言われると感情がないと指摘されたように感じると思います。

感情を理解できることは対話システムにとって重要です。相手が悲しい時に、まったくそれを理解しない無神経な話をしてしまったり、相手が喜んでいるときに一緒に喜べなかったら、社会的にまったく不適切でしょう。米軍が作っている兵士向けのカウンセリングシステムも話者の感情を推定し、適切な対話戦略を取るように作られています。

人間は意外なほど話し相手に共感している

感情理解の目的の一つは共感にあるといっても過言ではありません。共感なくして、信頼は生まれません。ここでは雑談AIにおける共感について触れておきたいと思います。

人間にとって共感は非常に重要で、人間同士の雑談のデータを収録して発話意図のラベルを付与したところ、共感・同意という発話意図のラベルは全体の12%もありました。つまり、8回に1回ほど同意や共感を示していることになります。これは大変多いのではないでしょうか。

共感的にふるまうロボットは、より信頼を得られることが知られています。ゲームなどで相手となる対話システムでは、共感をすることでより相手に信じてもらいやすくなることが示されています。私たちの研究グループでも雑談AIにおける共感の影響について調査をしています。

たとえば、好きな動物・嫌いな動物についての雑談を行うシステムを作ったことがあります。このシステムでは、共感を行う頻度をコントロールできるようにしてありました。そして、全然共感しないシステムや少し共感するシステム、かなり共感するシステムなどを作り、共感した回数とユーザの行動や対話の満足度の関係を調べました。