AWS、アプリケーションの会話型インタフェースを構築するAIサービス「Amazon Lex」発表

Amazon Web Services(AWS)は、さまざまなアプリケーション向けの会話型インタフェースの構築を容易にする「Amazon Lex」の提供を開始。自然言語での高度な対話ボットを短時間で簡単に構築できるようになるという。

» 2017年04月25日 15時45分 公開
[ITmedia]

 Amazon Web Services(AWS)は2017年4月19日(米国時間)、音声やテキストを使用した会話型インタフェースをさまざまなアプリケーションに構築できるAIサービス「Amazon Lex」の提供を開始したことを発表した。

 Amazon Lexは、クラウドベースの音声アシスタント「Amazon Alexa」を支える技術で、Amazon Alexaと同じ深層学習(ディープラーニング)アルゴリズムをフルマネージドサービスとして利用できるようになるという。

 AWSによると、自動音声認識(ASR)と自然言語理解(NLU)機能を備えたアプリを開発・導入し、スケールさせるには、膨大なデータとインフラストラクチャを使用した高度な深層学習アルゴリズムが必要になり、スキルを備える開発者も限られていたという。

 Amazon Lexは、これらの負担を排除し、Amazon Alexaを支える音声認識と自然言語理解機能をフルマネージドサービスとして提供することで、音声やテキストを使用した会話型アプリを容易に開発できるようにするという。

 これにより、例えば天気や最新ニュースの確認、旅行の予約、食べ物の注文、ビジネスソフトウェアから最新の営業成績やマーケティングに関する情報の入手、コネクテッドデバイスの管理など、さまざまなタスクを実行できる会話型アプリの開発とテストが可能になる。

 会話型アプリを開発するにあたり、開発者はユーザーの意図(航空券の予約など)を言葉にしたサンプルの言い回しと、その意図をAmazon Lexが音声に変換するのに必要な情報(旅行日や旅行先など)、ユーザーから追加情報を導き出すために必要な質問(「いつ旅行に行きたいですか?」「どこに行きたいですか?」など)をAmazon Lexに提供する。その後は、Amazon Lexが、ユーザーから入力された音声やテキストから会話の背後にある意図を理解し、会話を管理する(「既に旅行日が分かっていたら、この質問は省き、旅行先を訪ねる」など)機械学習モデルを自動で構築する。これにより、開発者はFacebook MessengerやSlack、Twilioといったモバイル/IoTデバイスや、Webアプリケーション、チャットサービス上に会話型アプリを構築できるという。

 またAmazon Lexは、さまざまなプラットフォームで求められる認証をサポートし、トラフィックの増加に伴って自動で容量を拡張することから、インフラストラクチャのプロビジョニングや管理についての心配する必要がないとしている。

 さらに、サーバのプロビジョニングや管理なし(サーバレス)でコードを実行できるイベント駆動型コンピューティングのプラットフォーム「AWS Lambda」に統合されているため、Lambdaの機能を使用して、エンタープライズアプリケーションや「Amazon DynamoDB」のようなAWSサービスからビジネスロジックを実装し、データを取り込むことも可能。加えて、ビルトインコネクターを備えているため、開発する会話型アプリからSalesforce、Marketo、Zendesk、QuickBooksといったSaaSアプリケーションのデータへのアクセスも容易だとしている。

 なお、Amazon Lexは現在、ノースバージニアリージョンで展開されており、英語(米国英語)のみのサポートとなる。AWSマネジメントコンソール、AWSコマンドラインインタフェース(CLI)、AWS SDKから使用を開始できる。

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ