生成AIの推論精度と信頼性を飛躍的に向上させるRAG技術。今回は、エンタープライズAI導入の最前線で注目を集めるRAGの実装に向けて、AWSとMicrosoftが提供しているRAG関連サービスを紹介します。
この記事は会員限定です。会員登録すると全てご覧いただけます。
AIやデータ分析の分野では、毎日のように新しい技術やサービスが登場している。その中にはビジネスに役立つものも、根底をひっくり返すほどのものも存在する。本連載では、ITサービス企業・日本TCSの「AIラボ」で所長を務める三澤瑠花氏が、データ分析や生成AIの分野で注目されている最新論文や企業発表をビジネス視点から紹介する。
生成AIの推論精度と信頼性を飛躍的に向上させるRAG(Retrieval-Augmented Generation)技術。Amazon Web Services(AWS)とMicrosoftはこの革新的なシステムの実装をどのように支援しているのか。
今回は、エンタープライズAI導入の最前線で注目を集めるRAGの実装に向けて、AWSとMicrosoftが提供しているRAG関連サービスを紹介します。
RAGとは、大規模言語モデル(LLM)に外部データベースからの情報を組み合わせることで、より正確で最新の情報を含む回答を生成する技術です。
AWSではさまざまな基盤モデルを試せる「Amazon Bedrock」を中心にRAGシステムを構築できます。Microsoftでは「Azure AI Search」と「Azure OpenAI」の組み合わせでRAGシステムの実装を実現します。いずれも基本から高度なカスタマイズまでサポートしており、企業の特定のニーズに合わせた柔軟な実装が可能です。
外部データベースを参照するRAGにおける中核である「検索」機能の実装では、AWSは「Amazon Kendra」や「Amazon OpenSearch Service」を提供しています。キーワードマッチングだけでなく意味的な関連性を考慮した検索が可能になります。MicrosoftはAzure AI Searchのセマンティック検索機能を通じて同様の機能を実現しています。
両プラットフォームとも「リランキング」機能(検索結果の優先順位付け)を提供しています。AWSではAmazon Kendraのセマンティックランカー、MicrosoftではAzure AI Searchのセマンティックランキング機能がこの役割を果たします。
検索で得られた情報を最も効果的に利用できるよう再構成する「リパッキング」に関しては両プラットフォームともカスタムコードでの実装が必要です。「LangChain」などのオープンソースライブラリを活用することで、開発の負荷を軽減できます。
企業独自の文脈や業界特有の要件に対応するため、両プラットフォームは生成モデルの「ファインチューニング」機能を提供しています。AWSではAmazon Bedrockや「Amazon SageMaker」、Microsoftでは「Azure Machine Learning」を使用して、特定の業界や企業の文脈に合わせたモデルの調整が可能です。
RAGシステムの実装においてはセキュリティとアクセス制御も重要な要素です。AWSでは「AWS Identity and Access Management」、Microsoftでは「Azure Active Directory」と「Azure RBAC」を通じて、エンドユーザーの権限に基づいた検索結果のフィルタリングを実現できます。
これらの機能を組み合わせることで、企業は自社のニーズに最適化されたRAGシステムを構築し、より精度の高い情報生成と検索を実現できます。
AIセンターオブエクセレンス本部 AIラボ ヘッド
日本女子大学卒業、東京学芸大学大学院修士課程修了(天文学) フランス国立科学研究センター・トゥールーズ第3大学大学院 博士課程修了(宇宙物理学)。
2016年入社。「AIラボ」のトップとして、顧客向けにAIモデルの開発や保守、コンサルティングなどを担当している。
Copyright © ITmedia, Inc. All Rights Reserved.