「Google Lens」登場 スマホカメラに写ったものを理解して追加情報やアクションを提示Google I/O 2017

» 2017年05月18日 05時06分 公開
[井上輝一ITmedia]

 米Googleは5月17日(現地時間)、年次開発者会議「Google I/O 2017」で、スマートフォンのカメラに写った映像を解析するサービス「Google Lens」を発表した。同社が提供するパーソナルアシスタント機能「Google Assistant」と写真サービス「Google Photo」にまず実装される。

スマートフォンのカメラに写った映像を解析するサービス「Google Lens」を紹介するサンダー・ピチャイCEO

 Google Lensで花を写すとユリだと認識したり、Wi-FiのSSIDとパスワードを写すとそのアクセスポイントに接続するボタンが表示されたり、街中のお店を写すと「Google Map」のお店情報を表示したりと、写ったものを理解してユーザーに役立つ情報やアクションをしてくれる。

Google Lensの使用例

 米Googleは今回の発表で「Mobile firstからAI firstへ」を掲げており、Google Lensの認識機能も機械学習によるもの。壇上では、日本語で「たこ焼き」と書かれた看板を写すと英語に翻訳し、ユーザーが「それはどんなもの?」と聞くとたこ焼きの画像が表示されるというデモも行われた。

「たこ焼き」の看板が登場
Google Assistantから起動したGoogle Lensが認識、ユーザーに「これはどんなもの?」と聞かれて写真を提示している

 Android Assistantは、Googleの「Pixel」シリーズのスマートフォンやAndroidアプリ「Allo」や「Duo」、これらに加えて今回iPhoneでも使用できるようになった。

Copyright © ITmedia, Inc. All Rights Reserved.

最新トピックスPR

過去記事カレンダー

2024年