偽動画をばらまかれた一般女性も

ディープフェイク動画というと新しく聞こえるが、言わば動くアイコラと言ってもいいだろう。顔をすげ替えられた画像を使ったアイコラ被害に遭った一般女性は多い。

ある20代女性は、たまたま見つけた友人からの連絡で、SNS上に自分のアイコラポルノ写真が掲載されていることに気づいた。

写真=iStock.com/GCShutter
※写真はイメージです

女性はすぐに削除依頼したものの、「あの画像がまだどこかに残っているかもしれないと考えると不安になる」という。

「色とか向きが不自然な写真だったから本物じゃないと気づいてもらえたけれど、自然だったら本人と思われて信じてもらえなかったかもしれない」

ディープフェイク動画は、目や口など表情や動きなども連動しており、本人と見間違うものが多い。ばらまかれたのがアイコラ写真だったから見破ることができたが、もしディープフェイク動画だったらどうだっただろうか。

冒頭でご紹介した例では名誉毀損罪などでの逮捕となったが、作成だけでは罪に問えないのが現状だ。

実際海外では、一般人を素材にしたディープフェイクポルノ動画が出回り始めている。あるオーストラリア人の20代女性は、10代だった8年前に検索しているときに自分のディープフェイクポルノ動画を発見。複数のポルノサイトに動画が投稿されていることに気づいたという。「誰が何のために投稿したのかはわからない。非常に傷ついたし、全部消せたとは思えない」

本物と見分けられないディープフェイク動画

有名本物と見分けられないディープフェイク動画なディープフェイク動画といえば、オバマ前大統領のものだろう。最後に俳優兼監督のジョーダン・ピールが現れ、ディープフェイク動画であることが明かされる動画を見たことがあるかもしれない。

動画内でオバマ前大統領は、「トランプ大統領はとんでもない間抜けだ(President Trump is a total and complete dipshit)」と、らしくないことを言っている。

「ディープフェイク」という言葉は、「深層学習(Deep learning)」と「偽物(fake)」を組み合わせたものだ。由来は2017年にさかのぼる。「Deepfakes」という名前のRedditユーザーが、エマ・ワトソンやケイティ・ペリーなどのハリウッド女優の合成ポルノ動画を公開したのだ。

日本での摘発例もそうだが、著名であれば声明を出して自分ではないと明らかにし名誉を守ることができる。しかし、無名の一般女性の場合はどうだろう。自分ではないと言っても信用されるかどうか。一般人である方が、甚大な名誉毀損被害につながる可能性さえあるのだ。