人間が書いたものと勘違いしてしまうクオリティ

人工知能(AI)が世界を変えるという認識はかなり広がっているが、具体的にどうなるのかはまだイメージしにくい。

フェイクニュースは、インターネットを主戦場として発信・拡散されている。(PIXTA=写真)

論理的に考えれば、こうなると予想できそうなものだけれども、私たちは案外、身体的にものを考えるようにできている。実際にある技術ができて、具体的な状況にならないと、本気になってそのことを考えようとしないのである。

徐々に水の温度が上がっているのに気づかずに、やがてやられてしまう「茹でガエル」の喩えがしばしば用いられる。人工知能について、私たちは茹でガエルになってしまってはいけないだろう。

イーロン・マスク氏らが中心となって設立された、人類にとって有益な人工知能を開発するための組織、OpenAIが、このほど、自然言語処理の研究プロジェクトの成果についてブログ上に論文を発表した。技術的説明を与えると同時に、その成果である人工知能を、一般には当面公開しないと表明したのである。

OpenAIの研究者たちによれば、今回開発されたGPT-2と呼ばれる人工知能は、書き出しの文章を与えられればそれに合った続きの文章を自動生成してしまう。

人間にはとても扱えないほどの大量の文章データを取り込んで学習した結果、このような高度な能力を獲得することが可能になった。

ニュースや小説の出だしをインプットとして与えると、GPT-2は「それらしい」続きの文章を自動生成してしまう。かなり見事なもので、下手をすれば人間が書いたものと勘違いしてしまうクオリティである。

なぜ、OpenAIの関係者たちはGPT-2が危険だと判断したのだろうか?

まずは、フェイクニュースの懸念がある。前回の米大統領選挙においてもフェイクニュースが問題になったが、それは人間が書いたものであった。もし、人工知能が大量のフェイクニュースを生成したら、どうなるか? ネット上に溢れる情報のうち、どれが真のものなのか、ますますわからなくなってしまう。