6月5日(米国太平洋夏時間)、Appleの開発者会議「Worldwide Developers Conference 2023(WWDC23)」が開幕した。今回もオンラインとリアルのハイブリッド開催で、基調講演では新しいOSやデバイスが発表された。
WWDCの大きな目的は、Appleの多様なハードウェアと、それと統合されているソフトウェア(OS)の最新機能を開発者に紹介し、その活用を促すことにある。同社が開発するOSはiOS、iPadOS、macOS、watchOS、tvOS、audioOSと、ハードウェアに合わせて多岐に渡る。
“パーソナルコンピュータ”という視点に立つと、これらのうちiOS、iPadOS、そしてmacOSの3つが主軸となる。これらのうち、macOSではCPU(SoC)が自社設計の「Apple Silicon」に切り替わったことで、ハードウェアからOS、そしてアプリに至るまでiOSやiPadOSと同じ技術を利活用できるようになった。このことは、Macとそれ以外の製品の統合度を高め、見た目以上の進化を促している。
WWDC23は、この進化をより具体的に体感できる場となった……のだが、このこと以上にコンセプト面で驚きを与えるモノが出現した。「Apple Vision Pro」である。
今回は、この“新ジャンル”の製品について語ってみようと思う。
【更新:10時35分】追記を行いました
Apple Vision Proは、いわゆる「AR/VRゴーグル」にそっくりだ。しかし、そのコンセプトは「メタバース(仮想空間)」での利用を想定した従来のAR/VRゴーグルとは少し異なる。
メインのSoCはMacと同じ「Apple M2チップ」で、OSこそ専用の「visionOS」だが、iOS/iPadOSアプリも利用できる。アプリの操作は声、手のジェスチャー、視線移動やデジタルクラウンで行えるが、必要に応じてキーボード、マウスやゲームコントローラーをつなぐことも可能だ。
AppleはVision Proのことを「空間コンピュータ(Spatial Computer)」と呼んでいる。端的にいえばメタバースでの利用よりも、「ユーザーとインタラクション(相互作用)する、“新しい”パーソナルコンピュータ」という世界観を実現しようとしているのだ。
ゆえに、Vision Proは「現実空間」と「仮想空間」のバランスをユーザーの好みに応じて調整できるようになっている。この調整には、AirPodsシリーズなどで培ってきた空間オーディオやノイズキャンセリングの技術も活用されている。
とはいえ、基調講演のイメージ動画にもあるが、Appleはどちらかというと現実世界とシームレスに行き来できることに重きを置いていることは明らかである。高精細かつ広いダイナミックレンジで現実世界が投影され、その空間中にiPhone、iPadやMacと共通する基盤に基づくアプリが表示される――そういう世界観を目指しているのだ。
もちろん、visionOSに最適化したデザインのアプリであれば、これまでにない新しい体験を得られるかもしれない。基調講演では、The Walt Disney Companyのボブ・アイガーCEOがVision Pro(visionOS)に最適化されたアプリやコンテンツを提供することを表明している。
(3D描画を用いない)2Dアプリは、開発プロジェクトで「iPhone向け」「iPad向け」などとチェックボックスをつけて生成するように、visionOS向けのUI(ユーザーインタフェース)に沿う形で実装しておけば「ネイティブアプリ」を簡単に作れそうである。基調講演でMicrosoft 365アプリが動いていたことからも分かるだろう。
「空間に表示する」という特徴を活かし、他のAppleデバイスの画面を投影してリモート操作も可能だ。
発売当初から多くのアプリが利用できるということは、今までのAR/VRゴーグルにはない強みである。PCの周辺機器、あるいは「スマホをAV/VRゴーグルにしました」という従来の製品とは一線を画して、汎用(はんよう)的なコンピューティング基盤の1つとしてデザインされていることは注目すべきポイントといえる。
Copyright © ITmedia, Inc. All Rights Reserved.