ITmedia NEWS > 速報 >
ITmedia AI+ AI活用のいまが分かる

大規模言語モデルを選択→数秒後にAzure上で試せる「Models as a Service」登場 従量課金制の推論API、ファインチューニングも可能。

» 2023年11月17日 10時12分 公開
[新野淳一ITmedia]

この記事は新野淳一氏のブログ「Publickey」に掲載された「マイクロソフト、大規模言語モデルを選択すると数秒後にAzure上で試せる「Models as a Service」発表。従量課金制の推論API、ファインチューニングも可能。Ignite 2023」(2023年11月17日掲載)を、ITmedia NEWS編集部で一部編集し、転載したものです。

 米Microsoftは開催中のイベント「Microsoft Ignite 2023」で、オープンソースの大規模言語モデルを、Microsoft Azure上でマネージドサービスとしてすぐに試せる「Models as a Service」を提供すると発表しました。

 これにより開発者が簡単に大規模言語モデルのサービスを簡単かつ迅速に試し、アプリケーションの開発に利用できるようになります。

 当初はMetaが公開している大規模言語モデルLlma 2をサポートし、今後MistralやJaisなど対応する大規模言語モデルの種類を拡大していく予定です。

カタログから選択すると数秒後には利用可能、従量課金制

 Models as a Serviceでは、カタログからモデルを選択すると数秒でその大規模言語モデルに対する推論APIとファインチューニングが可能になります。

 開発者はすぐにプレイグラウンドでの大規模言語モデルの探索や、Prompt Flow、Sematic Kernel、LangChainなどのツールを用いて大規模言語モデルアプリケーションの構築などを実行できます。

 また、独自のトレーニングデータを提供するだけで、Llama 2モデルのファインチューニングを簡単に始めることができます。

 Microsoft Azureは以前からAzure AIモデルカタログを提供していましたが、カタログから選択したモデルをデプロイするための大量のGPUのプロビジョニングに時間がかかるなどの課題がありました。

 Models as a Serviceでは、そうした課題を解決してすぐに大規模言語モデルが利用可能となります。また、推論APIはトークンの数による従量課金制のため、かかるコストも小さく始めることが可能となります。

Copyright © ITmedia, Inc. All Rights Reserved.