Google、モバイル検索結果画像の3D→AR化機能や「Google Lens」の新機能を発表Google I/O 2019

» 2019年05月08日 11時04分 公開
[佐藤由紀子ITmedia]

 米Googleは5月7日(現地時間)、年次開発者会議「Google I/O 2019」で、モバイルGoogle検索や「Google Lens」の新機能を発表した。

Google検索結果の画像を3Dに、さらにARにする機能

 モバイル版のGoogle検索で、例えば「人間の筋肉」「白ザメ」「ニューバランスのスニーカー」などと検索すると、結果の画像が対応している場合は検索結果に「3Dで表示する」ボタンが表示され、これをタップすると3D画像で確認できるようになる。この3D画像は360度回転させることも可能。さらに、「自分の空間で表示する」ボタンをタップすれば、その3D画像を端末のカメラで取り込むリアルな背景の中に置ける。


 白ザメもスニーカーも原寸大なので、ARで表示するとサイズを実感できる。

 ar 1 検索結果に「View in 3D」ボタンがあったら3Dにでき、さらに「View in your space」でARにできる

 3DおよびARデータは、Googleと提携するNASA、New Balance、Samsung、Target、Visible Body、Volvo、Wayfairなどが提供している。

 この機能は今月中にローリングアウトする見込み。Android以外でも使えるようになるのか、日本でも使えるのかはまだ不明だ。

「Google Lens」にメニューのお勧め料理ハイライトや翻訳読み上げ機能

 Googleが2017年のGoogle I/Oで発表したスマートフォンのカメラに写った映像を解析するサービス「Google Lens」が進化し、機械学習による視覚的な検索結果の表示が増えた。

 基調講演のデモでは、レストランのメニューを映してGoogle Lensボタンをタップすると、メニュー上の料理の中からお勧めのものをハイライトし、そこから任意の料理をタップするとその料理の写真とレビューが表示された。


 バックグラウンドでは、Google Lensがメニューから料理名をピックアップするために文字の書体やサイズを解析し、レビューと写真はユーザーの位置情報からレストランを特定してGoogleマップ上に表示される料理の写真とレビューを利用するという作業が行われている。

 Google Lensによる翻訳機能の対応言語が拡大し、日本語を含む100カ国語以上のテキストを読み取り、翻訳できるようになった。下の画像は、日本の新幹線の乗車券をカメラで写して英語に翻訳したものだ。

 ar 2 Google Lensでの翻訳(左がオリジナル)

 Googleはさらに、美術館の展示物にカメラを合わせるとキュレーターが用意した解説を表示する機能や、料理雑誌のレシピで動画による手順解説を表示する機能などを紹介した。


Copyright © ITmedia, Inc. All Rights Reserved.

アクセストップ10

最新トピックスPR

過去記事カレンダー

2024年