米Amazon.comは12月7日(現地時間)、AIアシスタント「Alexa」の新機能を幾つか発表した。いずれも機械学習によるコンテキスト把握に関連するものだ。
まず、米国のみだが、Alexaの自己学習機能によって、話者の不正確な命令を解析して正しいと思われる命令に解釈し直し、答える機能を追加した。解析には、話者のアクティビティ履歴や利用しているスキル、そのAlexaが搭載されているデバイスなどの状況を使う。
例えば話者が「“Good for What”をかけて」と言ったらそれがドレイクの“Nice for What”の言い間違えだと解釈し、正しい曲を再生する。
なお、うろおぼえの曲名で再生する機能はGoogleアシスタントにもあり、筆者がGoogle Home Miniで日本語で試したところ、Good for Whatと言ってもNice for Whatが再生された。
現在は曲タイトルの言い間違えだけだが、数カ月かけて自己学習機能の範囲を拡大していく計画だ。
これまでは、例えば「全国タクシー」のスキルを有効にしている場合、タクシーを呼ぶには「アレクサ、全国タクシーを開いてタクシーを呼んで」とスキル名を言う必要があったが、同日から「Alexa、タクシーを呼んで」と言うだけで全国タクシーでの配車手配を開始できるようになった。
Alexa向けのスキルは現在5万件以上あり、ユーザーはいちいちサービス名を覚えていられない。それをAlexaが利用履歴などから判断する。
この機能は、9月のAmazon本社でのイベントで発表され、米国では既に使えていた。
スキル名を言わずに命令できる機能は、米国ではスマートホームデバイスでも利用できるようになった。例えば」Alexa、掃除して」と言うだけでお掃除ロボットのRoombaでの掃除が始まる。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR