表示はスマホ上のアプリと連動して行う。スマホのOSは、AndroidでもiOSでもいい。どちらにしろ、クラウドでのAI処理や通知はスマホが処理する。
以下の写真は、デモ中に見たスマホアプリだ。Meta Ray-Ban Displayに表示される画面が、そのままスマホにも映っているのがわかるだろうか。
実際のスマホアプリとは異なるデモ用のアプリであるようだが、「スマホで制御した結果をグラスに映す」というコンセプトがよくわかる。
以下の動画は、相手が話す言葉を書き起こす「ライブ・トランスクリプション」を行った時のもの。話すのに合わせて文章が出来上がっていく様子がわかるだろう。
この先には当然、自動翻訳が待っている。
米Appleは先日、イヤホンである「AirPods」と「iOS 26が搭載されたiPhone」を組み合わせた「ライブ翻訳」を発表した。ただMetaは、「Meta Ray-Ban Displayなら画面もあってみやすい」としており、ディスプレイ内蔵が有利、と考えているようだ。
もう1つの違いが「コントローラー」。
Meta Ray-Ban Displayは「Meta Neural Band」という機器とセットで販売される。
Meta Neural Bandは本質的には「マウスやキーボードを代替する」目的で開発されたもの。現在はAIグラスを操作するために特化して作られていて、PCなどにつないで使うことは想定されていない。
特徴は「筋電位の小さな動きで、比較的正確に操作できる」ことだ。
以下は実際に操作している時の映像だ。
といったジェスチャーで操作をするが、そのほか、机の上やズボンの上で「文字を書く」ことで文字入力にも対応する。
いわゆる「手の認識」はしておらず、腕の位置などは認識しない。あくまでジェスチャー入力のためのデバイスだ。逆に言えば、「手を上に持っていって指し示す」ような操作は不要になる。
筆者が試した限り、精度はかなり良好だった。他の体験者は「慣れるまでズレがあった」という人もいたが、総じて評判は良い。腕にはコントローラーをしっかりつける必要があるし、多少の慣れはあるのかもしれない。
これを使って、スマホをカバンなどから出すことなく、ちょっとした処理をAIとともに行う......というのがMeta Ray-Ban Displayの狙いといっていい。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR