Googleは5月13日、Androidの新機能群「Gemini Intelligence」を発表した。AIが複数アプリをまたぐタスクを自動実行したり、ChromeでWeb上の操作を代行したり、ユーザーの代わりにフォーム入力を済ませたりできるようになる。
2026年夏にSamsung Galaxy S26シリーズとGoogle Pixel 10シリーズから順次展開し、2026年後半にはスマートウォッチ、車載端末、ノートPCに対象を広げる。これら以外のAndroidスマートフォンへの展開時期は示されていない。また、日本での提供時期は今後発表する。
GoogleはGemini Intelligenceを、AndroidをOSから「インテリジェンスシステム」へ転換する第一波と位置付ける。この方針は2月のSamsung Galaxy Unpackedで示しており、今回の発表で具体機能が出そろった。ユーザーの意図をくんで自律的に動くエージェント機能を、フラッグシップ端末向けに段階的に投入していく。
軸となるのが、アプリをまたぐ複数ステップのタスク自動化だ。Googleはここ数カ月、Galaxy S26とPixel 10で食品配達やライドシェアといった主要アプリでの動作を調整してきた。
例えばGmailに届いた大学の授業のシラバスから必要な書籍を抽出し、ショッピングアプリのカートに追加する一連の作業をGeminiがこなす。ジムのサイクリングクラスで前列のバイクを予約するような具体的な操作も可能だという。
画面や画像をコンテキストとして渡せば応用範囲は広がる。買い物メモを開いた状態で電源ボタンを長押しし「このリストの商品を全てカートに入れて」と頼めば、Geminiが配達アプリで処理する。旅行パンフレットを撮影して「これと似たツアーを6人グループでExpedia(旅行予約アプリ)から探して」と指示する使い方も想定する。
実行中はバックグラウンドで作業が進み、ユーザーは通知で進展を確認できる。Googleは「Geminiはユーザーが指示したときだけ動き、許可したアプリ内でのみ動作する。タスクが終われば停止する」と説明する。決済などの最終確認はユーザーが行う。
ウェブ上での作業については、ChromeのAndroid版に「Gemini in Chrome」を導入する。GoogleのAIモデル「Gemini 3.1」をベースとし、6月下旬から米国の一部対応端末(Android 12以上、メモリ4GB以上、英語設定)でロールアウトを始める。
ツールバーのGeminiアイコンをタップすると、画面下部にアシスタントが表示される。開いているページの要約や、長文記事の説明、複雑なトピックの解説に加え、複数ページの内容を比較するリサーチ用途も支援する。アプリを切り替えずに、GmailやGoogle カレンダー、Google Keepなど他のGoogleアプリへ情報を渡せる。レシピの材料をKeepにメモする、メール内の予定をカレンダーに登録する、といった操作をブラウザの中で完結できる。
Googleの画像生成・編集モデル「Nano Banana」も組み込み、開いているWebページに対する画像処理ができる。「このページをインフォグラフィックに変えて」と頼めば学習用の図解を作り、賃貸情報サイトの空室画像に「モダンなリビングの家具を追加して」と指示すれば、家具を配置したシミュレーション画像を生成する。
ウェブでの「auto browse」機能も、Android版Chromeに広がる。チケットメールから情報を読み取って駐車場予約サービスのSpotHeroで駐車場を確保したり、ペット用品サイトのChewyで定期購入を子犬用から成犬用に切り替えたりといった、面倒な手作業をGeminiが代わりに進める。購入やSNS投稿など、重要なアクションの前にはユーザー確認を挟む。auto browseは米国のAI ProとUltraの加入者向けに、Gemini in Chromeと同じタイミングで提供する。
自動入力機能「Autofill with Google」もGeminiと連携して強化する。Geminiの「Personal Intelligence」を通じて、パスポート番号や運転免許証番号、レンタカーのナンバープレート番号など普段覚えていない情報を接続済みのアプリから引き出し、複雑なフォームをまとめて埋める。接続はオプトイン方式で、設定からいつでもオン・オフを切り替えられる。
音声入力の新機能「Rambler」も投入する。Gboardの音声入力をベースに、「あー」「えーと」といったフィラーや言い直しをGeminiが除き、要点だけを抽出して整文する。
買い物メモを音声で口述しながら「やっぱりバナナはいらない」と言い直すと、Ramblerが該当項目を削除した状態でテキスト化する。さらに「箇条書きにして、絵文字を加えて」と指示すれば、形式の調整もリアルタイムで反映する。Geminiの多言語モデルを使うため、1つのメッセージ内で複数言語を切り替えても処理できる。メッセージのほか、ドキュメント、メール、AIエージェントへのプロンプト入力など、テキスト入力が必要な場面全般で利用できる。音声データはリアルタイムでの書き起こしにのみ使い、保存はしない。
ホーム画面のウィジェットも生成AIで作れるようになる。新機能「Create My Widget」で欲しい情報を自然言語で指定するだけで、専用のウィジェットが出来上がる。
「毎週、高タンパクな作り置きレシピを3つ提案して」と入力すれば、毎週内容が更新されるダッシュボード型のウィジェットになる。「サイクリングをするので風速と降水確率だけ表示して」といった独自仕様の天気ウィジェットも作れる。Wear OSのスマートウォッチでも同じ仕組みで利用できる。
UIデザインも「Material 3 Expressive」をベースに刷新する。Geminiが考えたり、ユーザーの声を聞いたり、バックグラウンドで作業をしたりしている状態を、視覚的なシグナルがアニメーションで示す。Googleは「ユーザーの注意をそらすのではなく、必要な情報へ導くデザイン」と説明する。
Gemini Intelligenceは今回のGalaxy・Pixelへの展開を皮切りに、今年後半にはスマートウォッチ、車載端末(Android Auto)、ノートPC、年内発表予定のスマートグラスへ対象を広げる。Androidが「アプリを開いて操作するOS」から「ユーザーの意図をんで動くシステム」への転換を遂げる記念すべきアップデートとなりそうだ。
Google、Fitbitアプリを全面的に再設計 Geminiを健康管理にも活用、新アプリ「Google Health」発表
「Gemini in Chrome」日本で提供 Webコンテンツを手軽に要約、YouTubeやGmailとも連携
Googleの「Gemini for Home」が日本語に対応 日本でも早期アクセスの受付を開始
Google Gemini活用「ライブ翻訳」提供開始 70以上の言語をヘッドフォン経由で即翻訳
Google「メッセージ」アプリでGeminiと日本語で会話可能にCopyright © ITmedia, Inc. All Rights Reserved.