OpenTextの調査により、企業の生成AI導入が進む一方、セキュリティやガバナンス体制が整った「AI成熟度」の高い企業は2割にとどまる現状が判明した。安全な運用の鍵となる「4つの要素」とは。
この記事は会員限定です。会員登録すると全てご覧いただけます。
ソフトウェア企業OpenText Japan(以下、OpenText)は2026年4月6日、生成AIの企業導入に関する調査結果を発表した。AI活用の急速な拡大に対し、ガバナンスやセキュリティ対策の整備が追い付いていない深刻な現状が浮き彫りとなっている。
同調査は、サイバーセキュリティおよびプライバシー保護の専門研究機関Ponemon Instituteと共同で実施。世界のIT・セキュリティ実務担当者約1900人の回答を分析した結果、安全な運用の鍵となる「4つの要素」が明らかになった。
調査によれば、企業の半数以上がなんらかの形で生成AIを導入している。他方で、サイバーセキュリティのリスクを把握し管理する体制を備えた「AI成熟度」が高いと回答した企業は約2割にとどまった。多くの企業は、既にAIを業務に取り入れているにもかかわらず、統制や管理の仕組みが整備途上だ。
企業は業務効率化や意思決定支援を目的としてAIの導入を進めているが、導入後の管理体制にはばらつきが見られる。調査において、リスクに基づく管理手法を採用している企業は半数未満にとどまり、AIに特化したデータプライバシー方針を整備している企業は41%だった。
生成AIに伴うリスクも具体化している。回答者の62%が「AIモデルの偏りや倫理的問題の低減」に難しさを感じている他、58%が「不適切な入力に起因する出力リスクへの対応」に課題を抱え、56%が「誤情報の拡散など利用者に起因するリスク管理」を課題として挙げた。こうした問題は、統制が不十分な場合、セキュリティの重大な問題につながる可能性がある。
生成AIはセキュリティ運用の高度化にも活用されているが、約6割の企業が「プライバシーやコンプライアンス対応の難しさが増した」と回答した。調査ではAIモデルの不安定な出力やデータ品質のばらつきに起因するエラーも依然として指摘されている。
AIの信頼性に関しては、人による監督の必要性も浮き彫りとなった。調査では51%の企業が「AIを適切に統制するためには人間の関与が不可欠」と回答しており、現時点で完全自律的な運用は難しいとの認識が広がっている。
OpenTextは、こうした状況を踏まえ、課題はAIそのものではなく、それを支える基盤整備の遅れにあると分析する。AIの価値を引き出すためには、セキュリティやガバナンス、情報管理を導入後の対応ではなく初期段階から組み込むことが不可欠だとしている。
同社は、安全なAI活用を実現するための要素として4つの柱を提示した。第1の柱はアイデンティティーおよびアクセス管理だ。AIエージェントの利用が拡大する中で、非人間のIDも含めた統制が求められ、最小権限の原則に基づくアクセス制御が重要となる。
第2の柱は、データセキュリティが挙げられる。AIが扱う情報の範囲や操作内容を適切に制御し、機密情報や個人情報を保護することが不可欠とした。AIの業務利用が進むほど、プライバシーやデータ整合性への影響が大きくなるからだ。
第3の柱は脅威検知と対応だ。AIエージェントの行動も含めてリアルタイムで監視し、異常やポリシー違反を検知する体制が求められる。継続的な監視はAI活用における信頼確保の基盤となる。
第4の柱は、アプリケーションセキュリティがある。AIを組み込むシステムは、設計段階からセキュリティ対策を取り入れることが重要だ。
生成AIの導入が拡大する中、統制と安全性を備えた運用体制の確立はあらゆる企業の共通課題だ。OpenTextは、これら4つの要素を組み合わせることで、企業が責任あるAI活用を実現するための基盤を構築できると提言している。
米2強が狙う“AI社員”の普及 Anthropicは「業務代行」、OpenAIは「運用プラットフォーム」
Microsoftがまたもや値上げ M365サブスク料金を最大33%増の「言い分」
内製化拡大で2桁成長 それでも「ノーコードツール」の先行きが暗い理由
品川区とSHIFTが生成AI実証実験 電話対応自動化で行政サービス向上図るCopyright © ITmedia, Inc. All Rights Reserved.