さらに悪いことに、医療用LLMを調査した結果、学習データに0.001%程度の誤情報が混入しただけで誤った回答をするようになることがわかった。

これは100億のデータに対して10の誤データ、1,000億のデータに対して100の誤データを混入さしていると誤った答えを出すことを意味する。やろうと思えばコストパフォーマンス高く汚染を実行し、AIを騙すことができる。AIは誤情報にきわめて脆弱、人間よりもはるかに騙されやすいと言える。