Gartnerは、2028年までに生成AIを導入する企業の50%が、LLMオブザーバビリティー(可観測性)に投資すると予測した。
この記事は会員限定です。会員登録すると全てご覧いただけます。
Gartnerは2026年3月30日(現地時間)、生成AIの本格運用において「説明可能性」と「可観測性」が重要な鍵になるとの予測を発表した。2028年までに、生成AI導入の50%で大規模言語モデル(LLM)の挙動を監視、分析する「LLMオブザーバビリティー」(可観測性)に投資が進むという。
XAI(Explainable AI:説明可能なAI)とは何か。
Gartnerは、「モデルの挙動を記述し、その長所や短所、予測される行動、潜在的なバイアスを特定する一連の能力」と定義している。XAIによってアルゴリズムによる意思決定の正確性、公平性、透明性を確保し、責任あるAI運用が可能になるという。
また、同社はLLMオブザーバビリティーとは、これまで重視されてきた応答時間などの指標を超え、ハルシネーション、バイアス、トークン使用量といったLLM特有の指標を監視、分析するソリューションだと定義している。
Gartnerのシニアプリンシパルアナリストであるパンカジ・プラサド氏は次のように指摘する。
「企業が生成AIの活用規模を拡大させるにつれ、信頼性への要求は技術そのものよりも速いスピードで高まっている。XAIはモデルがなぜそのように回答したのかという可視性を提供し、LLMオブザーバビリティーはその回答がどのように生成され、信頼に値するかどうかを検証する」
プラサド氏は、これら2つの基盤がなければ、生成AIの取り組みは低リスクのタスクや、出力検証が容易な非重要業務に限定され、投資対効果(ROI)が著しく制限されると指摘している。
同社の予測によれば、世界の生成AIモデル市場は2026年に250億ドルを超え、2029年には750億ドルに達する見込みだ。市場の急拡大に伴い、生成コンテンツの検証や事実誤認の防止が喫緊の課題ととらえられる可能性が高い。
プラサド氏によれば、従来のオブザーバビリティーは速度やコストに重点が置かれていたが、現状では「事実の正確性」「論理の正当性」「おべっか/迎合性」といった品質指標へと優先順位が移っているという。この変化により、コンテンツの正確性などを人間が検証することなどを含む、ガバナンスを重視した新たな評価手法が必要になると分析している。
同社は、企業が生成AIの信頼性を高めるために、以下の手順を優先的に実施することを推奨している。
2028年にインシデント対応の5割はAI関連に ガートナーが予測
AIエージェントは情報漏えいの温床 ガートナーが指摘する「管理不能リスク」
AIブラウザの利用は“まだ荷が重い” Gartnerが指摘する重大なリスク
もはやAIは内部脅威? 企業の73%が「最大リスク」と回答Copyright © ITmedia, Inc. All Rights Reserved.