アップルは9月、「ダイナミック・ヘッド・トラッキング・サウンド」という機能を音楽配信アプリに追加した。リスナーの動作に合わせて音の出方を変える音響技術だが、その完成度は低い。なぜ未熟ともいえる状態で世に出したのか。「Screenless Media Lab.」による連載「アフター・プラットフォーム」。第7回は「日本のハイテク企業がGAFAMに勝てない要因」――。(第7回)
アップルのiPhone XSとAirPodsとケース
写真=iStock.com/EnDyk
※写真はイメージです

仮想空間は「遊び」を超えてより実用的に

2021年10月にFacebook社が社名を「Meta(メタ)」に変更したように、この1、2年、急速に注目を集めているのが「Metaverse(メタバース)」である。オンライン上に巨大な仮想空間を設営し、参加者はCGによる「アバター」としてメタバースにログインし、メタバース内のオフィスで仕事をしたり、ゲームをしたりといったさまざまな体験をすることができる。近年のVR技術の急速な発達により、仮想空間におけるアバターの活動領域はリアル(現実世界)に近づき、単なる「遊び」ではなく実用的な意味を持ちつつある。

メタバースは視覚メインの仮想空間と理解されているが、そのリアリティを高めていくためには視覚だけでなく、五感すべてを仮想的に再現することが理想となる。

研究ターゲットのひとつが聴覚である。「音の立体化」と「音の定位」という2つの要素技術を組み合わせることで、被験者に音響的な仮想空間体験を提供するもので、本稿では「音響AR(Augmented Reality=拡張現実)」と呼ぶ。この5年ほどの間にNEC、ソニー、Appleなどで立て続けに、音響ARについての技術成果の発表と実装が行われている。

Appleの新たな音響技術は「完成度が低い」

Appleは2020年、「ダイナミック・ヘッド・トラッキング・サウンド」と呼ばれる新技術を発表し、2021年9月から傘下のApple Musicへの実装を開始した。

ダイナミック・ヘッドトラッキング・サウンドとは、ヘッドホンやイヤホンを装着したリスナーの姿勢を検知し、音源の位置をリスナーの顔の向きに応じて定位させる技術である。

しかし実際にこの技術を使った対応コンテンツを視聴してみると、その完成度は低いと言わざるを得ない。

頭を動かしてから音源の擬似位置がそれに合わせて修正されるまで、10秒近いタイムラグがあるのだ。

メタバースで使用するとしたら実用には程遠く、また純粋に音楽鑑賞用として考えると、「音源をバーチャルに定位させることが、音楽を楽しむ上でどれほど意味があるのか」という根本的な疑問がある。

まるでAppleは何らかの理由で未完成の技術を強引に実装し、この分野に参入しようとしているかに見える。

ここでは音響ARの歴史を整理しつつ、Appleが音響ARに参入してきた意味について考えていきたい。