生成AIが作る「ニュースの見出し」の落とし穴
ChatGPTやGoogleのGeminiなど、生成AIの進歩がめざましい。だが一方で、弊害も目につくようになってきた。2025年10月4日の自民党総裁選でもそれを実感させられた。
気をつけるべき落とし穴の一つが「生成AIによるニュース」の正確性だ。SNSのトレンド欄にはニュースやトレンドワードが表示されているが、Xでは生成AIで見出しと本文がつくられている。
そして、AIはしばしば間違えるのだ。誤った数値や固有名詞が入ったり、二者が逆になったり、異なる2つの話題が混ざったりする。報道機関のニュースを確認すれば間違いに気づけるが、日々忙しく過ごす中、チラッと目にして「へえ、そうなのか」という印象だけを抱き、そのまま記憶してしまうこともあるだろう。
新外務大臣へのネット評価が、事実とは真逆に
例えば、総裁選後のXのこのニュース。
自民党の高市早苗新総裁は、首相就任後の組閣で総裁選のライバルだった茂木敏充前幹事長を外務大臣に据える方針を固めた。(中略)X上では茂木氏の保守層から過去の外交姿勢への批判が相次いでいる。
最後の「保守層から過去の外交姿勢への批判が……」はおそらく現職の岩屋毅外務大臣のことだろう。茂木氏はXでは保守層からの評価は高い。一方で、総裁選期間中、こども食堂で自身の誕生日祝いをしてもらう、スーパーにハイヤーで乗りつけるなどのパフォーマンスに「市民感覚がわかっていない」と批判が寄せられていた。AIが、次期大臣と現職への評価を混ぜて文章を生成してしまっているのだ。
XはGrokというAIを採用しており、ニュースの下には「このストーリーは、Xのポストの要約であり、時間の経過とともに新しくなります。Grokは間違えることがあるため、アウトプットが事実かどうかを確認してください」という注意書きがある。
人間のようにニュースを「読んで、話をまとめている」のではなく、「リアルタイムでその瞬間に多数言及されているトピックを、組み合わせてテキストを生成している」のだ。だが「間違えることがある」という注意書きはグレーの小さな文字で、目立たない。
もう1例、見てみよう。
(中略)高市氏の公約の目玉であるスパイ防止法の制定が注目を集め、日本が先進国で唯一包括的な同法を持たない中、賛成派は国家安全保障の強化を主張する一方、反対派は市民弾圧の懸念を指摘している。


