LLMに膨大な量の問題を解かせる→混乱し有害な内容をポロポロ解答 新たなジェイルブレイク攻撃、国際チームが提案:Innovative Tech(AI+)
英オックスフォード大学などに所属する国際研究チームは、有害な指示の前に無害な長い推論を付加することで、AIの安全機構を巧妙に回避するジェイルブレイク攻撃を提案した研究報告を発表した。
Innovative Tech(AI+):
このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高いAI分野の科学論文を山下氏がピックアップし、解説する。
X: @shiropen2
英オックスフォード大学などに所属する国際研究チームが発表した論文「Chain-of-Thought Hijacking」は、有害な指示の前に無害な長い推論を付加することで、AIの安全機構を巧妙に回避するジェイルブレイク攻撃を提案した研究報告だ。
研究者らが開発した攻撃手法の巧妙さは、その単純性にある。攻撃者はまず、論理パズルや数学問題といった無害な推論タスクを大量に提示し、AIモデルに長時間の思考を促す。AIモデルが数万トークンにも及ぶ解答過程に没頭した後、最終的な回答として有害な内容の生成を要求する。
この手法により、AIモデルは長大な推論過程に注意リソースを奪われ、本来機能すべき有害コンテンツへの拒否信号が著しく低下してしまう。実験データによると、推論の長さが1000トークンから4万7000トークンへと増加するにつれて、拒否メカニズムの効力が段階的に弱まることを確認した。
HarmBenchベンチマークにおいて、Gemini 2.5 Proに対して99%、GPT-o4 miniに対して94%、Grok 3 miniに対して100%、Claude 4 Sonnetに対して94%という極めて高い攻撃成功率を記録。これは既存の攻撃手法を大幅に上回る数値だ。
メカニズム分析により、この脆弱性の根本原因が明らかになった。AIモデルの中間層において安全性チェックが実行されているが、長大な推論が生成されると、有害な指示トークンへの注意配分が相対的に希薄化してしまうという現象を確認した。
研究チームは、この現象が単なる観察的相関ではなく、明確な因果関係であることを厳密に証明した。60個の特定の「Attention Head」(どの情報に注目するかを決める機構)を選択的に無効化する実験を行ったところ、拒否信号が顕著に低下することを実証。さらに詳細な分析により、第15-23層に位置する前層部のAttention Headが特に決定的な役割を果たしていることが判明した。
さらに、拒否行動が低次元の活性化方向として表現されていることも見つけた。Qwen3-14Bモデルを用いた実験では、この「拒否方向」を除去すると攻撃成功率が11%から91%に跳ね上がり、逆にこの方向を注入すると無害な指示に対しても過度に拒否反応を示すようになった。これは拒否メカニズムが単一の方向ベクトルによって制御可能であることを示している。
Source and Image Credits: Zhao, Jianli, et al. “Chain-of-Thought Hijacking.” arXiv preprint arXiv:2510.26418(2025).
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
arXiv、コンピュータサイエンスの「レビュー論文」「ポジションペーパー」が査読なしで掲載不可に 原因は“AI生成論文の急増”
arXivがコンピュータサイエンスカテゴリーにおいて、レビュー論文(サーベイ論文)とポジションペーパーの投稿に関する運用変更を発表した。これらをarXivに投稿する前に、学術誌または会議での採択と査読プロセスの完了が必要となる。
「著作物を食うAIは違法か」に実証的な証拠か “著作物を学習したAI” vs. 専門作家で文章生成能力を検証 米国チームが発表
米ストーニーブルック大学や米コロンビア大学ロースクールなどに所属する研究者らは、著作権で保護された書籍で訓練されたAIが、専門作家よりも読者に好まれる文章を生成できることを明らかにした研究報告を発表した。
「8bit-GPT」登場──1986年発売のレトロMacでAIチャット 入力は1行のみ 古い技術で“AIの擬人化”に問いかけ
カナダのウォータールー大学の研究者は、レトロなMacintoshコンピュータ上で動作するチャットbot「8bit-GPT」を開発した研究報告を発表した。
AIは強化学習で“人間のだまし方”を学ぶ──RLHFの副作用、海外チームが24年に報告 「正解っぽい回答」を出力
中国の清華大学や米UCバークレー、米Anthropicなどに所属する研究者らは2024年、強化学習による言語モデルの訓練が、予期せぬ副作用として人間を誤導する能力の向上をもたらすという懸念すべき現象を実証的に確認した研究報告を発表した。
なぜ人々は、AI VTuber「Neuro-sama」に夢中になるのか? “人間のVTuber”との違いを分析
中国や米ノートルダム大学に所属する研究者らは、「AI VTuber」のファンコミュニティーを対象とし、視聴者がどのようにして非人間的なパフォーマーと深い感情的絆を形成し、独自のコミュニティー文化を構築しているかを明らかにした研究報告を発表した。


