保険・リスク管理サービスを提供するGallagherが発表したレポートによると、AI導入が進む中で企業はそのリスクへの対応に取り組んでいる。しかし、多くの企業は自分たちが思っているほどこの取り組みをうまく進められているわけではないようだ。
この記事は会員限定です。会員登録すると全てご覧いただけます。
保険・リスク管理サービスを提供するGallagherが2025年3月24日(現地時間、以下同)の週に発表したレポートによると、AI導入が進む中で、企業はリスクへの対応に取り組んでいるという(注1)。この分析は、調査企業であるOpiniumが900人のビジネスリーダーを対象に実施した調査に基づいている。
リーダーの5人に2人以上が「AIの使用に関連する脅威や悪用、その他の脆弱(ぜいじゃく)性の増加に対応するためにサイバーセキュリティ対策を強化し、プライバシーやデータセキュリティに関する対策を見直した」と回答した。ビジネスリーダーが最も懸念しているのは、不正確な出力やデータ漏えい、プライバシーの侵害、法的責任である。
戦略を見直してはいるものの、AIのリスクについて従業員に伝えているビジネスリーダーの割合は1年前と比べて84%から78%へと低下した。
企業はAIに関連する取り組みに、より多くの資金やリソースを投入している。これは新しいサービスの活用や既存システムの統合に向けた準備、従業員に対するAIの効果的な活用方法のトレーニングをはじめとするさまざまな形で実施されている。
人材戦略にはAIに対する企業の高い関心と、それに伴うセキュリティへの懸念の両方が反映されている。
人材紹介サービスを提供するRobert Halfが全米の求人サイトや企業の採用ページに掲載された600万件の新規ポジションを分析したところ、最も需要の高いテクノロジー分野の職種として上位に挙がったのはAIとサイバーセキュリティに関連するものだった(注2)。
セキュリティとリスク管理は、包括的なアプローチのあらゆる側面に組み込まれている。しかしデータバックアップベンダーであるCohesityのレポートによると、多くの企業は自分たちが思っているほどサイバーに強いわけではないという(注3)。
GallagherでAIおよびデジタルトランスフォーメーションとコミュニケーションコンサルティングを担当する部署に所属するベン・ウォーレン氏(マネージングディレクター)は「多くの組織はチーム内や全社内に向けてコミュニケーション施策を数回実施したが、それきりになっている。しかし、このような取り組みは一度やって終わりというものではない」と述べた。
大手会計事務所であるEYのような企業は、AIに関連する脅威の増加や悪用、その他の脆弱性からビジネスを守るために適切なフレームワークやチームの整備に取り組んでいる(注4)。
企業は安全かつ責任あるAIの導入を進めるためのベストプラクティスの収集にも時間をかけている(注5)。2025年3月24日の週の初めには、米国国立標準技術研究所(NIST)が、AIシステムのセキュリティを評価および管理するための最新ガイドラインを公開した(注6)。
サイバーセキュリティのリーダーたちは、AIを活用してセキュリティ対策を強化することに前向きだ(注7)。サイバーセキュリティ事業を営むCrowdStrikeが2024年12月に発表した調査によると、約70%が今後1年以内にAI技術の導入を予定している。しかし、導入計画はあるものの、生成AIについて、リスクよりも利点が上回ると考えているサイバー責任者は全体の4割未満にとどまっている。
(注1)Growth of artificial intelligence leaving businesses exposed to new risks(Gallagher)
(注2)AI, cyber top list of in-demand tech roles(CIO Dive)
(注3)Companies aren’t as cyber resilient as they think(CIO Dive)
(注4)What’s keeping technology leaders up at night?(CIO Dive)
(注5)CIOs turn to NIST to tackle generative AI’s many risks(CIO Dive)
(注6)Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations(NIST)
(注7)Cyber leaders are bullish on generative AI despite risks: report(CIO Dive)
© Industry Dive. All rights reserved.