速報
Google、生成AI悪用攻撃報告を脆弱性報酬(バグバウンティ)プログラムに追加
Googleは、脆弱性報酬プログラムの対象にAI悪用攻撃の報告を追加した。プロンプト攻撃やメンバーシップ推論攻撃など、AI悪用の懸念が高まっている。
米Googleは10月26日(現地時間)、生成AIに対する懸念が高まる中、脆弱性報酬プログラム(Vulnerability Reward Program、VRP)をAI悪用の攻撃に拡大すると発表した。
VRPは、Webやアプリなどに潜む脆弱性を報告した人に報酬を与えるプログラム。こうしたプログラムは、一般にバグバウンティプログラムなどとも呼ばれる。
Googleは、この拡大により「AIの安全性とセキュリティに関する研究が促進され、潜在的な問題が明らかになり、最終的にはすべての人にとってAIがより安全になると信じている」としている。
AI向けVRPの拡張の一環として、バグの分類と報告の方法を新たに検討しているという。
AIを悪用した攻撃のシナリオには、例えば敵対的なプロンプトを作成してモデルの動作に影響を与え、アプリが意図しない方法で出力を制御できるようにしてしまう「プロンプト攻撃」や、機密情報を含むトレーニングサンプルを逐語的に再構築する「メンバーシップ推論」攻撃などがある。
米Microsoftも12日、同様のAIを対象としたバグ報奨金プログラムを発表している。
関連記事
- OpenAI、AIの“壊滅的な”リスクに取り組む「Preparedness」チーム結成
OpenAIは、AIの“壊滅的な”リスクに取り組むためのチーム「Preparedness」を結成した。また、そうした壊滅的リスクとその対処についてのアイデアを募集するコンテストも開始。優秀な回答には2万5000ドル分のAPIクレジットを提供する。 - AIの4社(Anthropic、Google、Microsoft、OpenAI)、安全なAI目指すフォーラムFMF立ち上げ
米国のAI主要企業であるAnthropic、Google、Microsoft、OpenAIは、新フォーラム「Frontier Model Forum」(FMF)を立ち上げた。AIの安全性のベストプラクティスを特定し、社会的課題へのAI技術の利用を促進するのが目的としている。 - 「AIに毒を盛る」──学習用データを改ざんし、AIモデルをサイバー攻撃 Googleなどが脆弱性を発表
Google、ETH Zurich、NVIDIA、Robust Intelligenceに所属する研究者らは、学習用データセットの一部を改ざんし、それらを学習した機械学習モデルを攻撃する手法を提案した研究報告を発表した。 - Google Playの脆弱性報酬プログラム、対象がダウンロード1億以上のアプリに拡大
Googleが、、脆弱性報酬プログラム「Google Play Security Reward Program」の拡大と、新たなプログラム「Developer Data Protection Reward Program」の立ち上げを発表した。GPSRPの対象が、1億ダウンロード以上のすべてのアプリに拡大した。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.