「何が差別か」ということは人間が手作業で教えている
【酒井】やや別の方向性の話になるかもしれませんが、ChatGPTでは、強化学習のプロセスで、人間がよいか悪いかのスコア付けをするということでしたよね。これは、人間が差別表現などを除外しているということですか?
【古川】そうなんです。ところが、OpenAIがこの作業を行う人たちを低賃金で雇っていたことを問題視する声もあがっています。
【酒井】差別的な言葉や、暴力的な描写のあるテキストを読まなければならないのは苦痛な作業ですね。差別を防ぐための作業を差別的な低賃金で行わせていることも問題に感じます。現時点では、人の手を加えないと、不適切な表現を完全に排除することは難しいということでしょうか?
【古川】そうですね。それは今のAIの限界といえる部分かもしれません。「何が差別なのか」をコンピューターだけで学習することは難しいので、人の手で学習させる必要があるということですね。
【酒井】そもそもの前提として、AIが学習元次第で差別的な内容を生成してしまう可能性があることを理解しておくのがまず大切ですね。そして、明確な差別とはいえない価値観レベルの問題は、それぞれの文化に合わせて最適化したモデルを作るといった対応で解決できる可能性があること、「何が差別なのか」をAIに学習されるプロセスでは、人の手が加わっている現実があることも知っておく必要がありますね。
生成したテキストで権利侵害が問題になることはあるか
【酒井】生成AIを利用するにあたって、やはり気になるのが知らないうちに他人の権利を侵害してしまうリスクです。ChatGPTで生成した文章が、学習元のデータとまったく同じになってしまう可能性もゼロではないとのことでしたが、そっくりの文章だけではなく、「テイストの似た文章」が生成される可能性もありますか?
【古川】学習元のデータと似たテイストのものがAIで生成されてしまう問題は、画像生成AIでも議論になっていますね。
【酒井】学習元となった絵を描いた人からしたら、いい気分はしないですよね。文章生成AIで同じような問題が起きる可能性はないですか?