もちろんレッドチーミングがあらゆるリスクを洗い出せなかったからといって、その活動に価値がないというわけではない。部分的な活動でも、問題点を確認し、対策を行えれば十分に実施した意味がある。また当然ながらレッドチーミングは定期的に行われるのが望ましいが、一度でも実施できれば、関係者に対して潜在的なリスクの存在をアピールできるだろう。
一方で「セキュリティシアター」が問題なのは、そこから「何かをやりきった」感が組織内に生まれてしまうという点だ。実際には洗い出されていない不具合や脆弱性があるにもかかわらず、レッドチーミングをしたというだけで安心されてしまっては、逆にリスクから目を背ける結果となってしまう。
予算確保の観点からはレッドチーミングの有効性をアピールする必要があるものの、それが達成できない部分もあることを、組織内で同時に周知徹底する必要がある。
実際に多くの識者が、AIや生成AIのレッドチーミングにおける透明性確保の重要性を指摘している。レッドチーミング活動が何を明らかにし、何を明らかにできなかったのか――それを多くの関係者に対して公開し、可能であれば、チームメンバー以外の専門家による検証も可能な状態にしておくこと。そうした対応を行うことで、間違った安心感を醸成してしまうのを回避できるだろう。
前述の通り、いま多くの専門家や専門機関、大手IT企業により、AIレッドチーミングの手法の確立が進められている。いち早くレッドチーミングに取り掛かることはもちろん望ましいが、そのベストプラクティスについて、継続的に知識をアップデートしていかなければならない。
AIの安全性を“攻撃者視点”で評価するガイドライン IPAなどが無料公開 LLMへの8つの攻撃手法を紹介
「ここは人間も失敗するしAIでもいいのでは」――生成AIの業務導入で外せない“幻覚”との付き合い方
生成AIを導入しても“社員が使わない” 「生成AIプロンプト道場」の奮闘
なぜ生成AI導入は進まない? 問題は機能ではなく……
松江市、生成AIで“ゆるキャラ制作”→約2カ月で中止に 「著作権侵害のリスク払拭できない」Copyright © ITmedia, Inc. All Rights Reserved.