ネットフリックスを利用されている方であればお分かりかと思いますが、最初に出てくるトップ画面、ここからすでに、利用者によって異なります。年齢、好み、これまでの視聴履歴などを元に、いま観たい番組を、ソムリエのように一人ひとりにチョイスしているからです。
説明文の内容やサウンドに関しても、利用者一人ひとりに最適なものにチョイスされています。アマゾンプライムビデオもレコメンデーション機能はありますが、ネットフリックスのものは、比較にならないほど作り込まれています。
100万通りのストーリー
2025年の未来では、その最適化はさらに高まり、視聴中の巻き戻しや、一時停止の行動もデータ化してどのシーンが特に反応が良かったかを人工知能の画像解析を通じて、たとえばどの俳優のシーンが良かったのかなどをデータ化することができます。
さらに発展型だと視聴者一人ひとりによりエンディングはもちろん、シナリオが異なる動画が配信されることもできるでしょう。
仕組みはこうです。ベースとなる動画は、これまでどおり役者さんに演技をしてもらい、撮影します。その動画を観ていた視聴者の表情などを、カメラや音声などのセンサーで集め、解析。
どこで泣いたのか、どのシーンで笑ったのか、逆につまらなそうな表情をしていたシーンはどこなのか。人工知能が人の喜怒哀楽、表情を分析し、その人が最も感動するであろうシナリオをつなげていきます。
当然、シナリオは視聴者ごとにより異なります。100万人の視聴者がいたら、100万通りのストーリーがある。そんな未来が可能な時代になります。
テクノロジー的にどこまで人工知能で対応するかは分かりませんが、人間の動きや顔の表情をコンピュータグラフィックスで再現することは現在の技術で十分可能ですし、今後、動画を観るインターフェイスはモバイルが主になっていきますから、それほど緻密な精度も求められないでしょう。
このような未来が実現すれば、人の会話やコミュニケーションも変わっていきます。
「きのう○○観た?」ではなく「○○のエンディング、どうだった」と。ストーリーの違いがコミュニケーションの中心になっていきます。
役者さんの仕事も減るかもしれません。役者さんはベースとなる最初の演技、もしくは音声を吹き込むことが仕事になるからです。新しいシナリオを加工する際に役者さんにギャラを支払う。ライセンスビジネスのような形態になっていくことも考えられます。