Red Hatが「Red Hat OpenShift AI 2.15」を発表した。データドリフト検出やバイアス検出、LoRA対応、NVIDIA NIM、AMD製GPUサポートなどが含まれる。オンプレミスないしハイブリッドクラウド環境でのAIワークロードの開発、運用に寄与する機能強化だ。
この記事は会員限定です。会員登録すると全てご覧いただけます。
Red Hatは、AIおよびMLプラットフォームの最新バージョンとなる「Red Hat OpenShift AI 2.15」を2024年11月中旬から一般提供する。新バージョンはパブリッククラウド、データセンター、エッジを横断して一貫したセキュアなAI/ML運用環境を提供する機能が盛り込まれる。
Red Hat OpenShift AI 2.15には、モデルレジストリやデータドリフト検出、バイアス検出ツールなどの機能の他、「NVIDIA NIM」への対応、AMD製GPUのサポートが含まれる。(Low-Rank Adaptation)LoRA(LoRAWAN)にも対応した。
NVIDIA NIMはNVIDIAが提供するAIアプリケーション運用プラットフォーム「NVIDIA AI Enterprise」の一機能だ。NVIDIAの基盤に最適化された構成済みコンテナイメージを提供する。NVIDIA提供の各種AIモデルの他、同社パートナー企業が提供するAIモデルも配布する。提供モデルはAPIなども整備されており、迅速にAIアプリケーションを開発できる。
LoRAはファインチューニングの一手法だ。事前学習済みLLMに「低ランク行列」(Low-Rank Matrix)を適応させることで効率よくファインチューニングを実行できる。
ビジネスを支えるミッションクリティカルなクラウドネイティブアプリケーションの要件や企業のAIワークロードへのニーズに応えるため、Red Hat OpenShift AI 2.15では新たに次の機能を提供する。
・モデルレジストリ: 登録されたモデルを表示および管理する。予測型生成AIモデル、メタデータ、モデルアーティファクトの共有、バージョン管理、デプロイ、追跡の構造化および組織化を提供する
・データドリフト検出: デプロイされたMLモデルの入力データ分布の変化を監視する。この機能を使用すると、モデルの干渉に使用される実データがモデルの学習データから大幅に逸脱したかどうかを検出できる
・バイアス検出ツール: モデルが公正で偏りがないか監視する。このツールは学習データに基づくモデルの偏り検出に加え、実世界でのデプロイメント中にこれらのモデルが公正かどうかを監視する目的にも役立てられる
・LoRA(Low-Rank Adaptation)による効率的な微調整: 「Llama3」などのLLMの効率的な微調整を可能にする。企業はコストとリソース消費を削減し、AIワークロードを拡張できる
・NVIDIA NIMのサポート: NIMとの統合により幅広いAIモデルをサポート。アプリケーション・プログラミング・インタフェース(API)を通じてオンプレミスまたはクラウド上でスケーラブルな推論を実現する
・AMD GPUのサポート: AMD製GPUをサポートする。「AMD ROCm」ワークベンチイメージへのアクセスを可能にした。これによりAMD GPUを活用したサービングやトレーニング、チューニングに使用できるイメージにもアクセスできる
Red Hat OpenShift AI 2.15の発表に際し、Red Hat AI事業部バイスプレジデント兼ゼネラルマネジャーのジョー・フェルナンデス氏は製品の有用性を次のように述べている。
「Red Hat OpenShift AIの最新バージョンは、包括的なモデル・ライフサイクルの基盤として機能しながら、スケーラビリティ、パフォーマンス、運用効率を大幅に向上させます。また、IT企業はそれぞれのビジネスニーズに応じた環境で構築、デプロイ、実行する能力を維持しながら、強力なAIプラットフォームのメリットを得られるようになります」
Red Hat OpenShift 2.15は、2024年11月中旬から一般提供を予定している。追加機能、改善点、バグ修正、最新バージョンへのアップグレード方法など、より詳しい情報は「Red Hat OpenShift AI Self-Managed | Red Hat Product Documentation」から閲覧できる。
Copyright © ITmedia, Inc. All Rights Reserved.