オンデバイスAI以上に、統合設計力が問われるのが空間コンピューティングだ。Apple Vision Proは、技術的には“綱渡り”の上で成立している製品といっていい。
現行モデルではM2チップと専用コプロセッサとしてR1チップを同時搭載し、12個のカメラと5個のセンサー、LiDARを同期させ、最大90Hz駆動の両眼合計で約2300万画素のマイクロOLED(有機ELディスプレイ)を稼働する。さらに、任意の位置から音を発しているように感じさせる空間音響処理も実施している。
これだけのことを、頭部装着型のデバイスでこなしているのだ。
中でも重要なのが、R1チップだ。センサー入力からディスプレイへの反映を12ミリ秒以下に抑えるため、M2チップから独立してリアルタイムの入出力処理を担う。
VRデバイスにおける「酔い」の多くは、表示の遅延に起因する。R1チップは、その遅延を人の知覚に先回りするレベルまで下げることにある。これは、「シリコン」「ボディー」「光学系」を同時に設計できなければ実現しにくい解決策だ。
初代のApple Vision Proは3499ドルという価格設定と、600g超の重量ゆえに、普及には至らなかった。だが出荷を通じて、Appleは空間コンピューティングに必要な技術要素を自社で束ねられることを示した。マイクロOLEDの調達/統合、視線検出、センサーフュージョン、リアルタイム環境マッピング、空間音響――こうした技術を垂直に束ねられる企業は、現時点でもかなり限られている。
今後の後継機が普及帯に降りてくるには、「重量」「価格」「解像度」「視野角」の全てにおいて難しい課題を同時に超えなければならない。これには「半導体の微細化」「バッテリーの高密度化」「光学系の小型化」「ボディーの軽量化」「熱設計の刷新」のいずれかが欠けると成立しない。
もし空間コンピューティングで大きな進化が起きるなら、最も可能性が高いのはやはりAppleだろう。
そしてApple Vision Proの次に来る製品が、必ずしもヘッドセットにとどまるとは限らない。
例えばMetaの「Ray-Ban Metaグラス」は、軽量でディスプレイを持たないメガネ型デバイスにも需要があることを示した。Appleがどの形でこの領域に降りてくるのかは、ターナス新体制の最初の数年で少しずつ見えてくるはずだ。
今回のAppleの人事を長い視点で眺めると、シリコンとボディーとソフトウェアを一体で設計する、Appleのハードウェア思想の系譜が浮かび上がってくる。
「Apple II」を設計したスティーブ・ウォズニアック氏、「Macintosh」を作り上げたスティーブ・ジョブズ氏とアンディ・ハーツフェルド氏、「NeXT」のハードとOSの一体性、iMacからApple Silicon移行後のMacまで、Appleが繰り返してきたのは、常に垂直統合の思想だった。
クック体制の15年はそれを組織として完成させ、新体制におけるCHO新設はそれを経営体制の中へさらに深く組み込む動きだ。
成果が形になるのは、2027年から2028年にかけてだろう。M6チップ(仮)以降のMacの進化、Apple Vision Pro後継の普及帯への投入、まだ名前の付いていない新カテゴリー製品の登場――この数年は、Appleの垂直統合が次の段階へ進む瞬間を見る時期になる。
ティム・クックがアップルCEOを退任 ジョン・ターナス氏が後任に
「MacBook Neo」を試して分かった10万円切りの衝撃! ただの“安いMac”ではなく絶妙な引き算で生まれた1台
「Apple M1」のMacBook AirとPro、Mac miniを3台まとめて実力チェック 驚異的な性能が明らかに
ジョブズ氏の帰還からAI時代へ――Appleが描く「パーソナルAI」の未来は原点回帰なのか
Appleはいかにして「今日のAIやWeb」を予見したのか? “暗黒時代”とも呼ばれた1985〜1996年の光と影Copyright © ITmedia, Inc. All Rights Reserved.