米Googleも23年7月に発表したレポートの中で、社内に設置されたAI専門レッドチームの活動を報告している。Googleは具体的にいつAIレッドチーミングを開始したかは明記していないが、社内レッドチームの立ち上げは、「10年以上前」にさかのぼるそうだ。
またChatGPTでおなじみの米OpenAIは23年9月、社外の専門家で構成される「OpenAI Red Teaming Network」の立ち上げを発表している。これはGoogleとは異なり、専門家と契約を結び、彼らに対して実施した業務単位で報酬を支払うという形式を取っている。実際にこのネットワークを通じて、OpenAIのLLMであるGPTシリーズや、動画生成AI「Sora」のテストが行われたことも明らかになっている。
こうしたIT企業におけるAIレッドチーミングの取り組みの追い風となっているのが、23年10月に発表された、バイデン大統領による「AIの安全、安心、信頼できる開発と使用に関する大統領令」だ。
この大統領令では、基盤モデルを開発する企業に対し各種情報を提供するよう求めており、その中にレッドチーミングの実施結果も含まれている。またNIST(米国国立標準技術研究所)に対して、AIレッドチーミングのガイドラインを作成するよう求めている。いわば米連邦政府という重要な存在が、AIレッドチーミングにお墨付きを与えた格好だ。
このように盛り上がりを見せるレッドチーミングだが、一方で生成AIを相手にした場合、果たしてこの手法がどこまで有効なのか? という疑問の声も挙がっている。
例えば1月、米カーネギーメロン大学の研究者らが「生成AIに対するレッドチーミングは『セキュリティシアター』で終わる危険性がある」とする論文を発表している。セキュリティシアターとは、セキュリティ対策を実施したように見えるものの、実際にはセキュリティの向上に何ら効果の無い取り組みのことを指す。シアター(劇場)で行われる演劇のように、それっぽく見えるが真実ではない、という意味が込められている。
研究者らはこの論文の中で、生成AIに対するレッドチーミングが一定の効果を上げることを認めつつ、「レッドチーミングがあらゆる潜在的なリスクに対する万能薬であるかのような言及は、セキュリティシアターの域を出ない」として、その課題や限界にも目を向けるべきだと主張している。
それでは具体的に、どのような懸念点が示されているのか。主なものをまとめてみよう。
Copyright © ITmedia, Inc. All Rights Reserved.