ITmedia NEWS > 製品動向 >

AI時代の本命か? 画面が付いたMetaの新スマートグラスに感じた可能性 実機に触れて見えたこと(3/4 ページ)

» 2025年10月02日 18時00分 公開
[西田宗千佳ITmedia]

スマホと連動してAIを活用

 表示はスマホ上のアプリと連動して行う。スマホのOSは、AndroidでもiOSでもいい。どちらにしろ、クラウドでのAI処理や通知はスマホが処理する。

 以下の写真は、デモ中に見たスマホアプリだ。Meta Ray-Ban Displayに表示される画面が、そのままスマホにも映っているのがわかるだろうか。

スマホアプリにMeta Ray-Ban Displayの表示が映っている

 実際のスマホアプリとは異なるデモ用のアプリであるようだが、「スマホで制御した結果をグラスに映す」というコンセプトがよくわかる。

 以下の動画は、相手が話す言葉を書き起こす「ライブ・トランスクリプション」を行った時のもの。話すのに合わせて文章が出来上がっていく様子がわかるだろう。

 この先には当然、自動翻訳が待っている。

 米Appleは先日、イヤホンである「AirPods」と「iOS 26が搭載されたiPhone」を組み合わせた「ライブ翻訳」を発表した。ただMetaは、「Meta Ray-Ban Displayなら画面もあってみやすい」としており、ディスプレイ内蔵が有利、と考えているようだ。

筋電位コントローラーの操作感は

 もう1つの違いが「コントローラー」。

 Meta Ray-Ban Displayは「Meta Neural Band」という機器とセットで販売される。

 Meta Neural Bandは本質的には「マウスやキーボードを代替する」目的で開発されたもの。現在はAIグラスを操作するために特化して作られていて、PCなどにつないで使うことは想定されていない。

Meta Neural Band

 特徴は「筋電位の小さな動きで、比較的正確に操作できる」ことだ。

内側には筋電位センサーが多数

 以下は実際に操作している時の映像だ。

  • 親指と人差し指を合わせる「タップ」
  • 親指と中指を合わせる「キャンセル、バック」
  • 親指と中指をダブルタップ「画面を消す」
  • 親指を人差し指の縁に沿って動かす「左右のカーソル移動」
  • 親指を人差し指に合わせて上下にずらす「上下のカーソル移動」
  • 親指と人差し指で何かをつまんでひねる「ボリューム操作」

 といったジェスチャーで操作をするが、そのほか、机の上やズボンの上で「文字を書く」ことで文字入力にも対応する。

 いわゆる「手の認識」はしておらず、腕の位置などは認識しない。あくまでジェスチャー入力のためのデバイスだ。逆に言えば、「手を上に持っていって指し示す」ような操作は不要になる。

 筆者が試した限り、精度はかなり良好だった。他の体験者は「慣れるまでズレがあった」という人もいたが、総じて評判は良い。腕にはコントローラーをしっかりつける必要があるし、多少の慣れはあるのかもしれない。

 これを使って、スマホをカバンなどから出すことなく、ちょっとした処理をAIとともに行う......というのがMeta Ray-Ban Displayの狙いといっていい。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

あなたにおすすめの記事PR