Pixelシリーズに「Gemini Live」でカメラに写ったものについて会話できる新機能追加
Googleは、Androidスマートフォン向けに、「Gemini Live」に端末のカメラを通して見ているものを認識させ、それについて会話できる新機能を発表した。まずは「Pixel 9」シリーズと「Galaxy S25」で利用可能になる。
米Googleは4月7日(現地時間)、Androidスマートフォンの新機能として、AIアシスタント「Gemini Live」に端末のカメラを通して見ているものを認識させ、それについて会話できる新機能を追加したと発表した。
この新機能は、すべての「Pixel 9」シリーズとSamsungの「Galaxy S25」で無料で利用できる。それ以外のPixelモデルでは、「Gemini Advanced」のサブスクリプションに加入していれば利用可能になる。
カメラを通して会話を開始するには、Pixelで電源ボタンを長押しし、「Live」ボタン(マイクアイコンの横にある3本の線のボタン)をタップする。画面下部左端にビデオカメラのアイコンが、その右隣に画面全体を共有するためのアイコンが表示される(下の左画像)。
カメラのアイコンをタップすることで、カメラの映像を共有しながらの会話をスタートできる(下の右画像)。
なお、Gemini Liveでカメラ機能を使用するには、ネット接続が必要だ。また、18歳未満は利用できない。
「Gemini Advanced」に加入している筆者が「Pixel 9 Pro」で少し試した範囲では、花の品種やキャラクターグッズの名称などを正確に答えた。
「Amazon Echo Spot」については最初「Google Nest Hub」だと答えたが、ロゴを“見せた”ところ、「おっと、これはAmazon Echo Spotでしたね。失礼しました」と訂正した。Googleは、生成AIは実験的なものであるため、Gemini Liveの応答の正確性は確認する必要があるとしている。
モノの名前を教えてくれるだけでなく、キャラクターの由来や、商品の場合はその使い方も説明する。Googleが紹介した例では、ネット接続が切れた原因について、「Nest Wi-Fi」でのチェック方法について説明している。
ブログ記事やソーシャルメディアの投稿、写真コレクションなどを見せて、改善点やフィードバックを得ることもできる。
Googleはこの機能について、3月の「MWC Barcelona 2025」で予告していた。
なお、Gemini Liveは現在、企業および教育機関向けアカウントでは利用できない。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
GoogleがSamsungイベントで発表したこと BixbyからGeminiへ、など
Googleは、Samsungの新製品発表イベント「Galaxy Unpacked」に参加した。GeminiアプリがBixbyに代わってデフォルトのAIアシスタントになる。Gemini Liveでは、画像と動画についても会話できる。
GoogleがXRデバイス向けOS「Android XR」発表 Gemini搭載、スマートグラスの投入も
Googleが12月13日、XRデバイス向けの新OS「Android XR」を発表。AIアシスタント「Gemini」を使って、見ているものについて会話したり、デバイスを操作したりできる。サムスンのヘッドセットを2025年に発売する他、グラス型デバイスも用意する。
Google マップのレビュー、生成AI「Gemini」が要約 行き先の情報を簡単に把握可能に
米Googleは10月31日(現地時間)、Google マップに生成AI「Gemini」を活用すると発表した。検索と分析の手間を減らし、知りたい情報をすぐに得られるようになる。検索バーに「友達と夜にできること」と入力すると、夜に友人と楽しめる場所として、隠れ家のようなバーの他、音楽ライブの情報が得られる。
Google「メッセージ」アプリでGeminiと日本語で会話可能に
Androidの「メッセージ」アプリで生成AI「Gemini」と日本語で会話できるようになった(ロールアウト中)。利用可能になるとGeminiからメッセージが届く。
Google、マルチモーダルなAIアシスタント「Project Astra」デモでARメガネをチラ見せ
GoogleはリアルタイムのマルチモーダルAIアシスタントプロジェクト「Project Astra」を発表した。デモ動画には、Pixel搭載のプロトタイプとの会話を途中でARメガネに切り替える場面も。
