Socketは、生成AIによる虚偽の脆弱性レポート「AI slop」がバグ報奨金制度を揺るがす実態を明かした。curlやPython財団などでも問題が表面化し、信頼に基づく報奨制度が詐欺の温床となる危険が指摘されている。
この記事は会員限定です。会員登録すると全てご覧いただけます。
Socketは2025年5月7日(現地時間)、AIで自動生成した虚偽の脆弱(ぜいじゃく)性レポート、通称「AI slop」が、バグ報奨金プログラムに悪影響を及ぼしていると伝えた。
AI slopとは、大規模言語モデル(LLM)などの生成AIによって作られた、それらしく見えるが実際の技術的根拠に乏しい低品質なテキストコンテンツなどを指す。
報告によると、セキュリティ研究者であるハリー・シントネン氏はオープンソースのcurlプロジェクトに対する虚偽の脆弱性レポート(バグバウンディプラットフォーム「HackerOne」の報告番号H1 #3125832)を調査し、実在しない関数や再現性のないパッチ提案、事実無根の脆弱性内容が含まれていたことを確認している。
同氏はこの種のレポートが技術的な言葉でそれらしく見えるため、専門知識のない担当者が誤って信じてしまう危険があると指摘している。実際、当該レポートでは架空の関数やパッチが記載されていた他、存在しないコミットハッシュが示されていた。提出者は「@evilginx」というアカウントに関連付けられ、過去にも類似の手法で他の組織にレポートを提出し、報奨金を得ていた可能性がある。curlプロジェクトは同レポートを速やかに虚偽と見抜き、未然に防げたという。
一方で企業や小規模なオープンソース団体では内部に十分な専門知識がなく、問題のあるレポートでも支払ってしまう可能性がある。バグ報奨金プログラムが単なるセキュリティ対策の見せかけとして機能している実態もあり、虚偽の報告で報奨金を得られる構造が問題視されている。
Open Collectiveのソフトウェアエンジニアであるベンジャミン・ピウフル氏は、自身の組織でも同様の傾向が見られると懸念を示している。将来的にはHackerOneのようなプラットフォームへの移行や認証済み研究者に限定した報告受付を検討していると明かした。
Python Software Foundationのセス・ラーソン氏も「CPython」や「urllib3」などのプロジェクトで同様の問題が起きているとし、AIによる虚偽報告が専門的な確認を要するため、メンテナーの時間を不当に消費している現状を説明した。
これらのAI slopは単なる誤りではなく、意図的な悪用と見なされている。セキュリティ専門家によると特定のツールの誤検知を基にした根拠のない報告が後を絶たず、信頼に基づくバグ報奨金モデルの脆弱性が浮き彫りになっているという。
HackerOneにおいても、不正行為に関与したとされるユーザーに対して十分な措置が講じられていないとの批判があり、信頼性の維持が課題となっている。シントネン氏はこうした状況が続けば、本来の目的を持ったバグ報奨金プログラムが機能しなくなる可能性があると警告した。
curlプロジェクトは今回のレポートを公開するとともに報告者に「該当なし」に変更して報告を取り下げたが、こうした行動では評判が下がらない仕組みであることも問題だ。本件のような詐欺行為はAIがセキュリティ分野に与える新たな課題として今後の対応策が求められる事例といえる。
Copyright © ITmedia, Inc. All Rights Reserved.