メディア
ITmedia AI+ >

Googleの「Gemini」に、ロボット向け新モデル 自律的にタスクを分解して動作、“雑な指示”にも対応

» 2025年09月26日 15時38分 公開
[ITmedia]

 米Googleは9月26日(日本時間)、ロボット向けのAIモデル「Gemini Robotics 1.5」と「Gemini Robotics-ER 1.5」を発表した。同社のLLM「Gemini」の技術を活用しており、同社が3月に発表したロボット向けAIモデルの後継モデルに当たる。複雑な手順が必要なタスクに対し、自律的にタスクを分解してロボットを駆動できるという。

 Gemini Robotics 1.5は、視覚・言語情報をもとにロボットを動かす「VLA」(Vision Language Action)モデル。一方、Gemini Robotics-ER 1.5は、視覚・言語情報を統合的に処理する「VLM」(Vision Language Model)となっている。

 ロボットを動かす際は、Gemini Robotics 1.5とGemini Robotics-ER 1.5を組み合わせて利用する。人から指示を受けると、まずGemini Robotics-ER 1.5が、物理的な世界についての推論や、Web検索などのツールを活用し、タスクの計画を策定する。次にGemini Robotics 1.5がこの計画に基づき、タスクを細かいアクションに分解し、段階的に実行する。

Gemini Robotics-ER 1.5とGemini Robotics 1.5の連携イメージ(出典:公式ブログと公式YouTube動画、以下同)

 例えば「洗濯物を色分けして」という指示を受けると、Gemini Robotics 1.5は「まず、『色分け』とは白い服は白いカゴへ、それ以外の色の服は黒いカゴへ入れることだと、タスク全体の目的を理解する。次に、『赤いセーターを拾い上げ、黒いカゴに入れる』といった具体的なステップを考え、さらには『セーターをつかみやすくするために、一度手前に引き寄せる』など、各ステップを実行するための細かな動作レベルまで考える」(Google)

Apptronikの人型ロボット「Apollo」が洗濯物を仕分ける様子(1/3)
人型ロボット「Apollo」が洗濯物を仕分ける様子(2/3)
人型ロボット「Apollo」が洗濯物を仕分ける様子(3/3)

 また、同モデルは、異なるロボットの機体を動かす性能にも優れているという。ロボットアーム「ALOHA 2」で学習した動きを、ロボット企業である米Apptronikの人型ロボット「Apollo」などでも再現できたとしている。

 一方、Gemini Robotics-ER 1.5は、物理的な状況に基づく推論性能が高いといい、Googleが用意したベンチマーク「Embodied Reasoning Question Answering 」では、米OpenAIのAIモデル「GPT-5」などを上回るスコアを獲得したとアピールしている。

ベンチマーク「Embodied Reasoning Question Answering」の結果

 Gemini Robotics-ER 1.5は同日から、Googleが提供する開発者向けプラットフォーム「Google AI Studio」で提供する。Gemini Robotics 1.5は、Googleの一部のパートナー企業向けに提供中。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ