AIエージェントが好き勝手する事態を回避する方法 万全なセキュリティ体制を整えるにはCIO Dive

AIエージェントは生産性向上につながる一方で、大きなセキュリティリスクを生む可能性もある。確立されたガバナンスポリシーへの依拠がAIエージェントの未来を決めるだろう。

» 2025年07月09日 10時00分 公開
[Rahul AuradkarCIO Dive]

この記事は会員限定です。会員登録すると全てご覧いただけます。

CIO Dive

 どの企業にも情報のギャップやボトルネックは存在する。突き詰めれば、AIがビジネスにもたらす真の価値とは、情報へのアクセスを拡大し、人々がより多くの点を結び付けられるようにすることだ。

編集部注:以下は、SalesforceでユニファイドデータサービスおよびAI機能群である「Einstein」を担当するラフル・アウラドカル氏(エグゼクティブバイスプレジデント兼ゼネラルマネジャー)による寄稿記事である。

AIエージェントは脅威なのか

 導入したAIエージェントがビジネスのあらゆるデータソースに接続され、質問に答えたり、数百のアプリや複数の部門から得たインサイトを積極的に提示したり、人間の指示があろうとなかろうと行動を起こすようになったら、どうなるだろうか。

 AIエージェントは生産性を飛躍的に高める可能性がある一方で、大きなセキュリティリスクにもなり得る。

 だが、過度に悲観的になる必要はない。このような問題は全く新しいものではなく、そもそもセキュリティ侵害のおよそ10件に6件は人間が原因なのだ(注1)。

 しかし、何百ものアプリから得た企業データを活用し、それらの情報をこれまでにない規模で拡散できるAIエージェントは、従来の懸念をさらに深刻化させる要因となっている。Gartnerは(注2)、2028年までに企業のセキュリティ侵害の4件に1件がAIエージェントによるものになると予測している。

 企業がAIエージェントの導入を推進する際は、その能力を最大限に引き出すためにAIエージェントを企業データと深く統合すると同時に、重要なデータ漏えいを防ぐ必要がある。

どのような場合にAIエージェントは自分の判断で行動すべきか

 2025年をAIエージェントの社会進出の年とするためには、機密データを漏えいしないように、情報をいつ、どのように駆使すべきかをAIエージェントが理解していなければならない。

 適切なデータガバナンスやアクセス管理のためのポリシーが整備されていなければ、コンプライアンス違反を引き起こしたり、アクセス権のないユーザーにデータを漏らしてしまったりするリスクが生じる。

 多くのデータプラットフォームプロバイダーは、データのセキュリティおよび正確性、完全性を支援するガバナンスツールを提供しているが、それらのツールだけでは全てのリスクを十分にカバーしきれない。

 これらのソリューションは、アナリストやデータサイエンティスト向けに設計されているため、技術的で複雑なことが多く、AIエージェントを活用して業務を強化しようとしているマーケティングや営業(注3)、サービスの担当者にとっては扱いにくいのが実情だ。

 これらのデータプラットフォームの多くはビジネスユーザー向けに作られていないため、日常的に使われるCRMや各種業務アプリケーションと連携していないことが多い。このような断絶があるため、AIエージェントは顧客情報や機密性の高い調査データをはじめとする特定のデータをいつ、どのように守るべきかというビジネスの文脈を理解できないのだ。

 そのような文脈と十分なガバナンスポリシーがなければ、企業はデータのコンプライアンス違反や情報漏えい、AIの誤用といったリスクにさらされ、信頼を損ない、イノベーションの停滞を招くことになる。

 厳格なデータガバナンスとAIポリシーは必須条件となるだろう。Gartnerは、2027年までに世界各国でAIガバナンスに関する法律が制定され、信頼性やリスク管理、セキュリティ管理の能力がAI製品の主要な差別化要素になると予測している(注4)。

ガバナンス管理をどのように確立すべきか

 AIエージェントをこれほど強力にしているのは、単に24時間いつでも顧客の質問に答えたり、営業ミーティングを予約したりと自律的に行動できるからだけではない。AIエージェントは企業のデータに基づいて動いているため、顧客に個別最適化した対応ができたり、顧客がブランドとの間に築いてきた関係に基づいて、人間の担当者に次に取るべき行動を提案したりできるのだ。

 しかし、このように企業データに幅広くアクセスできる可能性がある以上、企業は、AIエージェントとそのユーザーが閲覧を許可されたデータのみにアクセスできるようにアクセス管理のためのポリシーを整備しなければならない。

 幸いなことに、AIもこれまで企業が長年にわたって築いてきたデータ管理の取り組みと大きくは変わらない。ポリシーに基づくアクセス管理の導入で、異なるユーザーやAIエージェントに構造化データと非構造化データの両方へのアクセスを制御するルールを設定できるのだ。

 ライフサイエンス企業であれば、研究開発データへのアクセスは制限しつつ、マーケティング情報にはより広くアクセスできるようにするかもしれない。EUと米国に拠点を持つ企業であれば、EUで作成された顧客データに対して米国ユーザーからのアクセスを制限するポリシーを策定し、一般データ保護規則(GDPR)に準拠することが求められる。

 技術的な課題は、組織全体で一貫したデータアクセスを大規模に実施できるかどうかという点にある。

 複数のデータソースを組み合わせる「データブレンディング」は、これまでになく大きな課題となっている。システム連携プラットフォームを提供するMuleSoftの「2025 Connectivity Benchmark Report(2025年版 コネクティビティに関するベンチマークのレポート)」によると(注5)、企業の約半数は平均して1000以上のアプリケーションを管理しており、アプリケーションの半数以上を統合できている企業はわずか2%にすぎないという。

 サイロ化したデータはITリーダーにとって最大の障害の一つであり、AIによる自動化の拡張やリアルタイムでパーソナライズされた体験の提供を妨げる要因となっている。

 朗報もある。それはアクセスポリシーの構築がこれまでになく容易になっている点だ。企業はクリック操作でポリシーを作成し、CRMのエコシステム上で営業やサービス、マーケティングの担当者と定義されたユーザーにそのポリシーを適用できる。このポリシーによって、AIエージェントは各ユーザーにどのデータを表示するかを判断し、許可されていない情報へのアクセスを防げるのだ。

人間とエージェントの協働

 AIエージェントの潜在的なメリットは否定できない。AIエージェントが日常的な業務を担うことで、人間の従業員はより創造的かつ戦略的な業務に集中できるようになる。

 近い将来、AIエージェントが他のAIエージェントを呼び出したり、新たなエージェントを作り出したりできるマルチエージェントシステムが登場し、個人や組織が実現できることは飛躍的に拡大していくだろう。これは、人間の労働力だけに依存しない成長の時代の到来を意味する。

 もちろん、このような未来が実現するのは、人間がAIエージェントを信頼できる場合に限られる。AIエージェントの能力に対する信頼こそが、革命を促進するために不可欠なのだ。

 CIO(最高情報責任者)は、AIシステムに対する信頼の構築において最も重要な役割の一つを担うことになる。データガバナンスやアクセス管理ポリシーを整備し、さらに自社のユースケースや組織構造に合わせてシステムを柔軟にカスタマイズできる環境を整える責任を負うのだ。

 CIOは、リクエストがどこから発信されたのか、誰がリクエストしているのか、その人物にどのレベルのアクセス権があるのかといった情報や、その他の要素をAIエージェントが考慮できるようにし、データ漏えいを防ぐ責任を担うことになる。これにより、リスクを抑えながら組織全体にAIエージェントの導入を拡大できるようになるだろう。

 人間の従業員が自律型AIエージェントと協働する機会が増える中で、テクノロジープロバイダーは、エージェントが必要に応じて自制し、セキュリティ侵害を防ぎつつ、人間のパートナーに対して可能な限り有益で役立つ存在であることを保証しなければならない。

© Industry Dive. All rights reserved.

アイティメディアからのお知らせ

注目のテーマ

あなたにおすすめの記事PR