さらに悪いことに、医療用LLMを調査した結果、学習データに0.001%程度の誤情報が混入しただけで誤った回答をするようになることがわかった。

これは100億のデータに対して10の誤データ、1,000億のデータに対して100の誤データを混入さしていると誤った答えを出すことを意味する。やろうと思えばコストパフォーマンス高く汚染を実行し、AIを騙すことができる。AIは誤情報にきわめて脆弱、人間よりもはるかに騙されやすいと言える。

誤情報に脆弱であるというAIの弱点を利用して、自国に都合のよいプロパガンダを大量にネットに拡散し、人々がAIに質問した際、プロパガンダを答えるように仕向けるのがLLMグルーミングと呼ばれる手法だ。