ハルシネーションを根絶できない原因

AIがハルシネーション(幻覚)を起こす原因としては、様々なものがある。例えば、学習データが不十分であったり、間違っていたりすることが原因になりうる。だが、それだけではない。

ハルシネーションの大きな原因は、AIによる理解の仕方に基づくものが多いと思われる。つまり、AIがシンボル・グラウンディングできないことが、ハルシネーションの大きな原因の1つと考えられる。

シンボル・グラウンディング問題の解決は、AIが実世界の対象や概念を正確に理解し、それに基づいて適切な情報を生成するために必要だ。この問題が解決されなければ、AIはシンボルの意味を正確に「接地」できず、その結果、不正確な情報やハルシネーションを生じるリスクが高まる。

ハルシネーションを完全に避けることはできない

このため、シンボル・グラウンディング問題について、様々な研究がなされている。

例えば、「MathQA」という研究がある。しかし、いまのところ満足のいく結果は得られていない。AIがシンボルの意味を完全に理解し、それを実世界の文脈で適切に使用することは、現在の技術では難しい課題だ。

したがって、われわれはChatGPTなどの生成AIを用いるにあたって、AIがシンボル・グラウンディングできないことを前提としなければならない。

つまり、ハルシネーションを完全に避けることはできないという前提で用いる必要がある。