現状のAIによる自動判別は論理的に破綻

最近、AI(人工知能)を利用したフェイクニュースの自動判別システムが発表されている。

ミシガン大学が発表した『フェイクニュース自動判別(Automatic Detection of Fake News)』システム(2017年8月23日、Verónica Pérez-Rosas, Bennett Kleinberg, Alexandra Lefevre, Rada Mihalcea, Computer Science and Engineering, University of Michigan, Department of Psychology, University of Amsterdam)が直近で注目を浴びているものであり、最大76%の的中率を誇っている。ただし、これは一定の条件下での話である。この方法には3つの重要な特徴がある。

第一の特徴は、フェイクニュースを3つのパターンに分けて、そのうち意図的なねつ造を対象にしていることだ。前述したようにそれが意図的なねつ造であるかどうかは読み手にはわからない。

第二の特徴は、言語解析を用いた分析でThe Toronto Starとニューヨークタイムズを正しいニュースのモデルにしている点だ。しかし、ニューヨークタイムズは2003年に「ジェイソン・ブレア事件」を起こしている。

同誌の記者ジェイソン・ブレアは盗用やねつ造を繰り返しており、執筆した73本の記事の半分近くに問題が見つかった。また、シンガポールでは2018年3月に「シンガポール初代首相のリー・クアンユーが死亡した」という噂を学生が流し、それらしい写真をねつ造したところ、CNNが信用してニュースにする事件が起きた。つまり大手メディアだからといって正しいとは限らない。

大手メディア自身も発信源になってしまう

そもそも『ロシアのトロールのメッセージを世界のメディアと有名人が拡散する(Russian Trolls Duped Global Media And Nearly 40 Celebrities)』(2017年11月4日、NBC)によれば、ロシアのフェイクニュースを世界の3000メディアが取り上げて拡散していたのだから、大手メディアだからといって信頼できない。

もちろん、大手メディアの記事で信頼できるものに限定すればいいのかもしれないが、それがフェイクニュースであったことは時間が経ってから明らかになったのである。その時点の判別基準がすぐに覆る可能性もある。

第三の特徴は、信頼できる大手メディアの文体や文章のくせ(句読点の使い方など)を参照していることだ。第二の特徴で指摘したように大手メディア自身もフェイクニュースの発信源になる以上、これもあてにはならない。

要するに、現状の方法論には無理がある。