見分けがつかないほど精巧な性的画像は名誉毀損になり得る
裁判所は、当該アイコラ画像が非常に精巧で合成写真であることを見抜くのが困難なものであるとしたうえで、アイコラについての前提的な知識を有している者に対してさえも、対象とされたアイドルが真実そのような姿態をさらしたのかもしれないと思わせかねない危険性をはらんだものであったことは否定できず、また、アイコラについての知識が無い者がアイコラ画像を見れば、対象とされたアイドルが真実そのような姿態をさらしたものと誤解することは確実であるとして、当該アイコラ画像を掲載した行為は名誉毀損に当たると判断しました。
要するに、閲覧した者に「え、この子ってこんな卑猥な写真を撮ってるんだ」という印象を抱かせる画像を公開することは、そのアイドルの社会的評価を低下させることになる=名誉毀損になる、というわけです。
AIで実在の人物そっくりの性的画像を生成し、その画像を公にした場合も、アイコラの場合と同様に名誉毀損が成立すると考えられます。
ただし、上記の例のように意図的に特定の人物そっくりの画像を生成したわけではなく、偶然実在の人物にそっくりな画像が生成されてしまったところ、生成された画像とそっくりな実在の人物がいることを知らないまま画像を公開してしまうという場合も考えられます。このような場合には、名誉毀損の故意を欠き、名誉毀損は成立しないと考えられます。
実在する児童とそっくりなAI性的画像は児童ポルノになる
また、実在の児童(18歳未満)とそっくりな児童の性的画像をAIにより生成した場合には、その画像は児童ポルノ禁止法上の児童ポルノに当たると考えられます。『オタク六法』で詳しく触れていますが、実在の児童をモデルに作成した3DCGは児童ポルノに当たると判断された判例があるためです(最決令和2年1月27日 刑集第74巻1号119頁)。
さらに、著名人そっくりの画像を生成し、その画像を無断で顧客の吸引力の利用を目的に利用した場合には、当該著名人のパブリシティ権侵害に当たる可能性もあります。
他方、肖像権については、肖像権に関する判例の考え方を前提にすると、既に公開されている写真を学習させたり、またそれを元に画像を生成したりする限りでは、肖像権の侵害には当たらないと考えられます。
話題になったAIコスプレイヤーの場合、「特定の人種っぽい画像」が生成される仕組みになっている様子ではあるものの、偶然特定の人物そっくりの画像が生成される可能性は十分にあります。
今後も新たな生成系AIが登場することが予想されますが、AIで生成された成果物を公開した場合には、予期せず第三者の権利を侵害してしまう可能性があることを肝に銘じて、AIを活用しましょう。
【Q2】コスプレイヤーとして活動してコスプレ写真をSNSにUPしています。あまり露出の多い衣装や扇情的なポーズはとらないようにしています。しかし、ファンの男性が、私がアップロードした写真をAIに学習させ、実際に私がコスプレをしているかのような、露出の多い衣装の扇情的な写真を出力し、SNSに公開していることがわかりました。
【A2】名誉毀損に当たると考えられます。