Googleが「Android XR」の進捗発表 XREALの有線グラスやGemini統合AIグラスなど

» 2025年12月09日 07時11分 公開
[佐藤由紀子ITmedia]

 米Googleは12月8日(現地時間)、XRデバイス向けプラットフォーム「Android XR」に関する多数の進捗(しんちょく)について発表した。

 xr (画像:Google)

 Android XRは、2024年12月に発表したもので、没入型のヘッドセットから軽量なスマートグラスまで、形状の異なる幅広い拡張現実(XR)デバイスを単一の基盤で動作させるために開発されたプラットフォームだ。

新たなハードウェアカテゴリー「Wired XR Glasses」と「XREAL Project Aura」

 没入感と携帯性を両立させる新しいデバイスカテゴリとして「Wired XR Glasses(有線XRグラス)」を発表した。その第1弾として、米XREALが「Project Aura」を公開した。

 xreal XREAL Project Aura(画像:XREAL)

 XREAL Project Auraは軽量なメガネ型の本体で、演算ユニットとバッテリーを内蔵した端末に有線接続して動作する。光学シースルー方式を採用しており、透明なレンズを通して現実世界を見ながら、70度の視野角でデジタル情報を重ねて表示することが可能だ。

 xreal 2 ケーブルはツルの先端から伸びているようだ(画像:Googleの動画より)

 浮かぶレシピ動画を見ながら料理したり、家電のセットアップ時にステップバイステップのガイドを重ねたりするといった、日常的な利用シーンを想定している。

 xreal 3 Project Auraの視界(画像:XREAL)

2種類の「AIグラス」とGeminiによる機能、開発ツールの拡充

 Googleは2025年のGoogle I/Oで、Samsung、Gentle Monster、Warby Parkerと協力して日常的な着用を想定した「AIグラス」を発表した。今回は、このAIグラスに2つのタイプがあることを説明した。

 1つはスピーカー、マイク、カメラを搭載し、音声で操作する「スクリーンフリー型」、もう1つは小型ディスプレイを内蔵し、翻訳やナビゲーションなどの情報を視界に表示する「ディスプレイ搭載型」だ。

 これらにはAIアシスタントの「Gemini」が統合されており、カメラで捉えた物体の詳細について説明させるマルチモーダル検索やリアルタイム翻訳などの機能を利用可能だ。

 こうした機能をサードパーティのアプリでも実現できるようにするために、「Android XR SDK Developer Preview 3」を公開した。

 AIグラス向けアプリの開発が解禁された他、既存のモバイルアプリをグラスで利用可能にするライブラリなども提供される。

 AIグラスの初号機は、2026年に登場する見込みという。

Galaxy XR向けの主要な新機能

 一部地域で既に販売されているヘッドセット「Samsung Galaxy XR」向けの複数の新機能も発表した。

 Windows PCと接続してヘッドセット内にデスクトップ画面を表示・操作できる「PC Connect」、Web会議でユーザーの表情や動きをリアルに再現するデジタルアバター機能「Likeness」、移動中の機内などで画面を安定させてコンテンツを視聴できる「Travel Mode」が順次展開される見込みだ。Geminiとの組み合わせで、PCゲームの攻略支援などのAIアシスタントとしての利用も想定しているという。

今後の展望

 XREAL Project Auraや各種AIグラスの市場投入は2026年を予定している。また、Galaxy XR向けの、あらゆる2Dコンテンツを3D体験に変換する「Auto Spatialization」(自動空間化)機能のシステムレベルでの実装も予定されている。


Copyright © ITmedia, Inc. All Rights Reserved.

アクセストップ10

最新トピックスPR

過去記事カレンダー