Google「検索Live」を提供開始 カメラと声で直感的に探せる 日本を含む200以上の国と地域で
Googleは、日本を含む200以上の国と地域で、AIを用いた新機能「検索Live」の提供を開始した。この機能は音声とカメラを組み合わせ、現実世界の対象物についてリアルタイムで対話できる。最新の音声モデルであるGemini 3.1 Flash Liveを搭載しており、多言語による自然な対話とWeb情報の提示を可能にする。
Googleは、日本を含む世界200以上の国と地域において、AIモードを利用可能な全言語で「検索Live」の提供を開始した。利用者は音声とカメラの両方を用い、同社の検索AIとインタラクティブな会話を楽しめる。検索Liveはカメラが捉えた対象を認識し、リアルタイムで回答や詳細なWebリンクを表示する。
今回の機能拡張の背景には、新しい音声モデルである「Gemini 3.1 Flash Live」の導入がある。このモデルは標準で多言語に対応しており、自然で直感的な会話を可能にする。世界中の利用者は、日常的に使用している言語で検索と対話ができるようになった。同社はこの技術により、検索体験を一段上の水準へ引き上げる。
利用者が検索Liveを開始するには、AndroidまたはiOS版の「Googleアプリ」を起動する。検索バーの下にあるライブアイコンをタップすることで、AIへの問いかけが可能になる。利用者は声を出して質問を投げかけるだけで、役立つ回答を音声で受け取れる。さらに追加の質問を重ねることで、対話を深めることもできる。
視覚情報を活用した検索も可能である。例えば、観葉植物の葉が変色した原因を知りたい場合、カメラを有効にして植物を映しながら質問する。検索はカメラの映像から状況を把握し、適切なヒントと詳細情報へのリンクを提案する。文字入力による検索では説明が困難な場面において、この機能は大きな利便性を提供する。
また、Googleレンズでカメラをかざした状態からでも、ライブオプションを選択することで、目の前の物体についてリアルタイムで対話できる。画面上のボタンから回答をテキスト形式で確認したり、文字入力で質問を継続したりすることも可能だ。同社は、利用者が世界を探索し目標を達成するための支援を今後も継続する。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
Googleが「ググる常識」を捨て、検索に「AIモード」を追加 何がどう便利に?
米Googleは5月20日(現地時間)、年次開発者会議「Google I/O 2025」で、Google検索に「AIモード」を追加すると発表した。従来の検索と異なる。より高度な推論やマルチモーダル処理、追加の質問やWebへのリンクを通じてより深く掘り下げる能力を持つ。
Google 検索の「AIモード」が日本語に対応 Gemini 2.5活用で長文質問も可能に
GoogleのAI検索機能「AIモード」が日本語に対応、9月9日から段階的に展開開始。従来の検索では答えにくい長い質問や複雑な問いに対し、複数検索を同時実行してAIが統合回答を提供する。本棚の写真から書籍推薦するなど画像検索にも対応し、検索体験が大きく進化する。
Android版Google検索にAIが履歴をまとめてくれる「コレクション」機能
Android版Google検索に、検索履歴に簡単にアクセスできるようにする「コレクション」機能が追加された。AIが検索履歴に基づいて集めた「マイレシピ」や「行ってみたい」場所のコレクションがカード状に表示される。
「ジェミニ」か「ジェミナイ」──Geminiの正しい読み方は? Google Japanが改めて告知
2026年1月20日、Google Japanは公式Xアカウントで、自社の生成AIモデルである「Gemini」の日本語における正確な呼称を明示した。英語の発音に基づいた「ジェミナイ」と、日本国内で広く用いられている「ジェミニ」のどちらが適切であるか。Googleは今回、公式の見解を示した形だ。
Google マップで営業時間を指定してお店を探すテクニック
おなじみの定番サービスには、もっとアプリを便利に使える隠れた機能が存在している。

