女性芸能人の顔写真を合成した偽のアダルト動画で、国内初の逮捕者が出た。ITジャーナリストの高橋暁子氏は「昔のアイドルコラージュとは比べものにならない高精度。ディープフェイクと呼ばれる動画は1年半で6倍に増えており、決してひとごとではない」という――。
ネットワークへの不正アクセス
写真=iStock.com/kuppa_rock
※写真はイメージです

ディープフェイクで偽のアダルト動画、初の逮捕者

ディープフェイク動画をご存じだろうか。AIのディープラーニングとフェイクを足し合わせた造語だ。AI技術を使って別の画像を合成し、本人が出演した本物の動画と見分けがつかないほどそっくりな偽(フェイク)の動画のことだ。

この技術を悪用したとして、10月に国内初の逮捕者が出た。女性アイドルや女優の顔写真をアダルト動画に合成し、インターネット上で配信。名誉毀損と著作権法違反の疑いで男3人が警視庁などに逮捕された。

警視庁によると、被害に遭った女性芸能人らは約200人に上り、3500本以上のアダルト動画が見つかったという。芸能プロダクションなどが声明を出す事態になった。

実はこの被害は、一般人にも広がり始めている。ディープフェイク動画の実態とひとごとではないリスクについて解説したい。