米Googleは5月20日(現地時間)、年次開発者会議「Google I/O 2025」で、Google検索に「AIモード」を追加すると発表した。
従来の検索と異なり、より高度な推論やマルチモーダル処理、追加の質問やWebへのリンクを通じてより深く掘り下げる能力を持つ。Googleは「最も強力なAI検索」とアピールする。
Googleは、AIモードで利用できるようになる一連の新機能群も明らかにした。
例えば、「Deep Search」という機能では、より深く詳細な回答が求められる質問に対して、徹底的に調査を行える。数百もの検索を同時に実行し、散在する多様な情報を横断的に分析。専門家レベルのリサーチを行うだけでなく、レポートを“わずか数分”で作成する。
次のトピックは、次世代かつマルチモーダルAIアシスタントである「Project Astra(アストラ)」による視覚検索だ。
文字通り、Google 検索は“ユーザーが見ている景色を理解できる”学習パートナーとなり、難しい概念を説明したり、Webサイト、動画、掲示板などのさまざまな情報元へのリンクとともにアドバイスを行う。スマートフォンのカメラを使って周囲の物について会話をしながら検索することも可能だ。
Google 検索を利用すれば、日々のタスクにかかる時間を節約できるようにもなる。Chromeブラウザ向けのAIエージェント「Project Mariner(マリナー)」は、チケットの予約や価格の比較といった作業を代行。これも検索を“行動”の支援へと拡張するアプローチだ。
近い将来、自分にとって最適な商品を見つけるのは、人ではなくAIになるだろう。
AIモードには、「ショッピング支援」機能もあり、Gemini モデルの能力と Google のショッピンググラフを組み合わせ、インスピレーションを得るための商品探索、購入前の熟考、商品の絞り込みまであらゆる段階でユーザーをサポートする。
例えば、コーディネートがどのように見えるかを確認したい場合は、自分の写真を1枚アップロードするだけで、何十億点ものアパレル商品を仮想的に試着できる。適切な価格でぴったりなアイテムが見つかったら、ユーザーは新しい「エージェント型チェックアウト」機能にGoogle Payでの購入を依頼できる。
個人の過去の検索履歴やGmailなどと連携し、パーソナルな文脈を活用して、AIモードでユーザーに最適な結果を提案する機能や、スポーツや金融のデータをもとにカスタムチャートを自動で作成する機能もある。
Google 検索といえば、キーワード入力や音声での検索を想起しやすかったが、対話的かつ文脈的にユーザーの意図を理解し、能動的に調査や提案などを実行できるAIモードにより、Google 検索での体験は大きく変わるだろう。
それどころか、従来のキーワード主導の検索である「ググる常識」から脱却し、単なる情報取得の手段となっていたGoogle 検索そのものが“ユーザーにとって知的なAIパートナー”にもなり得る。
Googleは5月20日から、AIモードを米国の全ての人に提供する。あわせて、I/Oで紹介したすべての新機能については、今後数週間から数カ月の間に、試験的な新機能や技術を試せるユーザーに提供する。
(※)記事内で引用しているGoogle Japan Blogの画像は、実際の画面とは異なる場合がある。ユーザーが実際に利用する際の表示内容などは、掲載イメージと異なる可能性がある
Gemini Liveの「カメラと画面共有」機能、全てのAndroidとiOS向けに無料提供
Pixelシリーズに「Gemini Live」でカメラに写ったものについて会話できる新機能追加
音声でAIと会話する「Gemini Live」が日本語に対応 40言語に拡大
iOS版「Geminiアプリ」リリース iPhoneでも日本語での音声会話が可能に
さよなら「Googleアシスタント」──Pixel 9では「Gemini」がデフォルトにCopyright © ITmedia, Inc. All Rights Reserved.