AIシフトが一層進む2024年 その中で静かに進むデータの“空間化”本田雅一のクロスオーバーデジタル(2/2 ページ)

» 2024年01月05日 19時00分 公開
[本田雅一ITmedia]
前のページへ 1|2       

メディアの表現、記録、融合は“空間化”される

 一方で、Appleは2024年、北米で空間コンピュータ「Apple Vision Pro」の出荷を開始する予定となっている。

 「空間コンピュータ」と自称したこともあり、「Meta Quest 3」と同種のデバイスだと捉える人も多いが、Appleのアプローチはエコシステム全体を見渡すと、Meta Questシリーズとは異なる視点もある。

 Meta Questの源流は「Oculus Rift」にある。このデバイスが画期的だったのは、ユーザーから視野を“奪った”上で、頭部の動きに合わせて自由にコンピュータの映像を見せることで、仮想空間の描写をまるで現実のように見せることだった。こうしたVR技術の基礎にあるのは、コンテンツで空間データを持ち、ユーザーに見せる際に、ユーザーの状況やデバイスの表現能力に応じてリアルタイムにレンダリングする点にある。

 空間で表現されるのは映像だけではなく音響も同様で、両者は同期していなければならない。最近「MPEG-H 3D Audio」や「Dolby Atmos」といった「空間オーディオ」に対応する規格で音声を収録した音楽/映像コンテントツが急速に広がっているが、これも音楽を構成する要素を「ステレオスピーカー(またはイヤフォン/ヘッドフォン)」を使って表現(再生)することを前提としてあらかじめレンダリング(マスタリング)するのではなく、音楽の構成要素を“空間”に配置した設計図となる「ストリームデータ」として配信し、表現に使うデバイスに合わせて“レンダリング”するという手法を取る。

 そのため、1対のイヤフォンであっても、“空間で”音楽を表現できる。この仕組みは映画館向けのDolby Atmosとと比較されることもあるが、もっと大きな空間や設備でも応用可能だ。例えばラスベガスに建設された「Sphere」は、LEDで包まれた外観もすさまじいが、内部は球体のLEDディスプレイと多数のスピーカーで構成され、全身で映像と音響を感じられる。このSphereのコンテンツも、全て空間で設計されている。

Sphere 米ネバダ州のラスベガスに10月オープンした「Sphere」は、球体が特徴的な新感覚アリーナで、映像や音響は空間ベースで組み立てられている

 iPhone 15/15 Proシリーズでは、OSのアップデートで奥行き情報を持つ「空間ビデオ」なる動画撮影が可能になったが、映像も音声も、これからは空間をそのまま捉えることが当たり前になっていくだろう。

 空間ビデオは、いわゆる「視差3D表現」の一種ではある。これを空間の中に配置することで、過去の思い出をそのまま追体験できるようになる。こうした空間表現を取り巻く“個々の技術”がそろい、1つに集うのがApple Vision Proと「VisionOS」だ。

 表舞台の主役は製品自身だが、今後のトレンドを追う部分で最も大切な部分は、今後数世代にわたって進化していくだろうデバイスではない。コンピューティング体験全体を、空間表現を基本として扱えるようにする文脈での空間コンピューティングとなるだろう。

Apple Vision Pro Apple Vision Proは、従来のVRゴーグルと比べると「コンピューティング体験」を空間的に持っていく志向が強い

全ての既存メディアは、空間に再配置できるように

 つまり、個々のデータ/メディア/コンテンツだけではなく、コンピュータが人間とインタラクト(交流)する方法として“空間”があり、それを表現するためのデータを中心にあらゆるコンピューティング技術が組み立てられるようになるのだろう。

 例えば、Apple Vision Proでは現実空間のキャプチャー(デジタイズ)を行いながら、仮想オブジェクトを重ね合わせてレンダリングする「Mixed Reality(MR)」を高い精度で実現するデバイスとして登場する。頭の中で理解しているつもりでも、高い品質でこの手の体験をすると、大きな“気付き”を得る人も多いはずだ。

 よく似たデバイスである「Meta Quest 3」も、Apple Vision Proと同じような表現も不可能ではない。しかし、実際に両方を体験した立場からすると、両者は共に空間コンピューティングを志向しているが、“描く(描こうとする)世界”が全く違う

Quest 3 Metaの「Meta Quest 3」も、空間コンピューティングを志向している面がある。しかし、Appleの考えているそれとは方向性が異なる

 2D/3Dで作られたコンテンツやオブジェクトはもちろん、VR(仮想現実)の表現も含めて、あらゆる既存メディアを(映像、音声ともに)空間の中に自由に配置して操ることができる。

 もちろん、空間を100%活用したコンテンツが最も“驚き”を得られるだろうが、最初からそろえられるわけではないだろう。しかし、質の高い現実空間ディスプレイ内の中では、既存のメディアが表現される体験でさえも、全く新しいと感じるだろう

 あらゆる既存メディアが座標空間の中に割り当てられ、そこからレンダリングすることでヘッドマウントディスプレイの中でリアリティーとして表現される。空間のデータ化と、空間データをネイティブで扱える――(将来の)空間コンピューティングでは、OSの処理体系こそが大きな価値を持つことになりそうだ。

 空間コンピューティングの始まりの年となるのが、2024年というタイミングなのだと思う。

空間 空間上にWebブラウザが表示されるだけでも、新しい体験としては十分といえる

 この変革期が過ぎると、空間オーディオの楽しみ方と同じように、手元にある、目の前にあるコンピュータのディスプレイ方式や大きさなど物理的な設計に応じて、空間から最適な映像を表現するといった楽しみ方に変わっていくのだろう

 ヘッドマウントディスプレイなんて使わない? もちろん、全員が使うことはないと筆者も思う。しかし、空間オーディオを楽しむのに「自分の周囲を取り囲むスピーカーシステム」が必須ではないように、空間コンピューティングで扱うコンテンツやアプリケーションのアウトプットも、それこそ「小さなスマホの画面」であってもいい。

多くの気づきが2025年へとつながる

 とはいえ、2024年のデバイス市場においてVR/MRデバイスの売り上げが激増するということもないだろう。この手のデバイスは、まだまだ発展途上にある。

 データの形式やそれを扱うための仕組みなどは変化し、処理系が空間データ中心のアーキテクチャに変化していくとは思うものの、実際にデバイスの売り上げに繋げるには、まだ数年を要すると思う。

 そうした意味では、2023年が「AIという技術を多くの人が自分の中で発見した年」になったように、2024年は「MRあるいは、さらに多くの表現手段と表現するデバイスのバリエーションが増える“クロスリアリティー”の一端に気付く年」となると考える。

 2025年以降、その新しい気付きが、次の世代のコンピューティングを生み出す基礎になっていく。

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.

アクセストップ10

最新トピックスPR

過去記事カレンダー