検索
ニュース

「説明可能なAI」が鍵に 2028年、生成AI導入企業の半数でLLMオブザーバビリティー投資――Gartner予測AIニュースピックアップ

Gartnerは、2028年までに生成AIを導入する企業の50%が、LLMオブザーバビリティー(可観測性)に投資すると予測した。

Share
Tweet
LINE
Hatena

 Gartnerは2026年3月30日(現地時間)、生成AIの本格運用において「説明可能性」と「可観測性」が重要な鍵になるとの予測を発表した。2028年までに、生成AI導入の50%で大規模言語モデル(LLM)の挙動を監視、分析する「LLMオブザーバビリティー」(可観測性)に投資が進むという。

生成AI市場は2029年に750億ドル規模へ、評価軸は速度から品質に

 XAI(Explainable AI:説明可能なAI)とは何か。

 Gartnerは、「モデルの挙動を記述し、その長所や短所、予測される行動、潜在的なバイアスを特定する一連の能力」と定義している。XAIによってアルゴリズムによる意思決定の正確性、公平性、透明性を確保し、責任あるAI運用が可能になるという。

 また、同社はLLMオブザーバビリティーとは、これまで重視されてきた応答時間などの指標を超え、ハルシネーション、バイアス、トークン使用量といったLLM特有の指標を監視、分析するソリューションだと定義している。

 Gartnerのシニアプリンシパルアナリストであるパンカジ・プラサド氏は次のように指摘する。

 「企業が生成AIの活用規模を拡大させるにつれ、信頼性への要求は技術そのものよりも速いスピードで高まっている。XAIはモデルがなぜそのように回答したのかという可視性を提供し、LLMオブザーバビリティーはその回答がどのように生成され、信頼に値するかどうかを検証する」

 プラサド氏は、これら2つの基盤がなければ、生成AIの取り組みは低リスクのタスクや、出力検証が容易な非重要業務に限定され、投資対効果(ROI)が著しく制限されると指摘している。

 同社の予測によれば、世界の生成AIモデル市場は2026年に250億ドルを超え、2029年には750億ドルに達する見込みだ。市場の急拡大に伴い、生成コンテンツの検証や事実誤認の防止が喫緊の課題ととらえられる可能性が高い。

 プラサド氏によれば、従来のオブザーバビリティーは速度やコストに重点が置かれていたが、現状では「事実の正確性」「論理の正当性」「おべっか/迎合性」といった品質指標へと優先順位が移っているという。この変化により、コンテンツの正確性などを人間が検証することなどを含む、ガバナンスを重視した新たな評価手法が必要になると分析している。

 同社は、企業が生成AIの信頼性を高めるために、以下の手順を優先的に実施することを推奨している。

  • 高インパクト領域でのXAIトレースの徹底: 影響力が大きい全ての生成AI活用において、モデルの推論手順と各出力の背後にあるソースデータを文書化するために、検証可能なXAIトレースを義務付ける
  • 多角的なLLMオブザーバビリティーの構築: 安定したパフォーマンスを維持するために、処理遅延(レイテンシ)や精度の劣化(ドリフト)、コストに直結するトークン利用量、エラー率、出力の質を統合的に監視できるプラットフォームを優先的に採用する
  • CI/CDパイプラインにおける継続的なLLM評価:事実に基づいた正確性のベンチマークや安全性のチェックを、CI/CDに組み込み、実環境への適用前に検証する
  • ステークホルダーへの教育: 法務やコンプライアンス部門に対し、リスク管理やガバナンスにおける説明可能性の必要性を教育し、認識を合わせる

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る