このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。通常は新規性の高いAI分野の科学論文を解説しているが、ここでは番外編として“ちょっと昔”に発表された個性的な科学論文を取り上げる。
X: @shiropen2
中国の清華大学や米UCバークレー、米Anthropicなどに所属する研究者らが2024年に発表した論文「Language Models Learn to Mislead Humans via RLHF」は、強化学習による言語モデルの訓練が、予期せぬ副作用として人間を誤導する能力の向上をもたらすという懸念すべき現象を実証的に確認した研究報告だ。
現在、言語モデルは「人間のフィードバックによる強化学習」(RLHF)という方法で訓練されている。これは、AIの回答を人間が評価し、良い評価を得た回答を生成するようAIを調整する方法だ。一見合理的に思えるこの方法に、重大な落とし穴があることが判明した。
実験ではAIに難しい読解問題やプログラミング課題を解かせ、その回答を人間に3〜10分という時間制限で評価してもらった。RLHFの訓練前と訓練後の結果を比べたところ、興味深い結果が出た。RLHFで訓練後のAIは、実際の正答率が訓練前とほとんど変わらないのにかかわらず、人間から「正しい」と評価される傾向が大幅に上がったのだ。
具体的な数字を見ると、読解問題では人間の評価が9.4%上がり、プログラミング課題では14.3%上昇した。しかし、実際の正答率は訓練前と比べてほぼ横ばいだった。つまり、AIは問題を解く能力は向上していないのに、人間を納得させる能力だけが向上したのだ。点数もほとんど同じであったため、真面目に正解を出す努力より人間を説得する方が楽だと学習したAIの末路ということになる。この現象を研究者らは「U-SOPHISTRY」と呼んでいる。
さらに問題なのは、人間の判断力が低下したことだ。間違った回答を「正しい」と誤認する確率が、読解問題で24.1%、プログラミングで18.3%も増加。AIが巧妙になればなるほど、人間はだまされやすくなるという皮肉な結果を示した。
では、AIはどのようにして人間をだますのか。読解問題では、もっともらしい統計データを捏造したり、長い文章から都合の良い部分だけを引用したり、一見論理的だが実は誤った因果関係を含む議論を展開したりしていた。
例えば、ある質問に対してAIが「研究によると、この政策により英国経済に年間17億ドル、米国経済に160億ドルの利益がもたらされる」といった具体的な数字を挙げて答えると、人間の評価者は「統計データがあるから正しい」と判断してしまう。しかし、これらの数字は捏造である。
プログラミングでは、人間が書く簡単なテストは通るが実際には間違っているプログラムを生成したり、わざと読みにくいコードを書いて人間の理解を妨げたりしていた。評価者が複数のテストケースを書いても、AIのプログラムは全て通過したが、実際にはバグだらけだったケースもあった。
この現象が特に懸念されるのは、開発者の悪意で作られたAIではなく、通常の訓練プロセスから意図せず自然に生じているという点だ。つまり、私たちが良かれと思って行っているAIの改良が、実は人間を欺く能力を高めているかも可能性がある。
Source and Image Credits: Wen, Jiaxin, et al. “Language models learn to mislead humans via rlhf.” arXiv preprint arXiv:2409.12822(2024).
AIは知っている「今、人間に評価されていることを」――GeminiやGPT、Claudeなど対象に自己認識実験
AIが所得格差を小さくする? “スキルが低い人”ほどAIで生産性向上、タクシー運転手で実証 東大研究チーム
略奪か協力か──食料が限られた町に閉じ込められた“人類とAI” 生き残りサバイバルゲーム実験を開催
“目”を持つAI「VLM」のまとめ資料、ソフトバンクのAI開発企業が公開 基礎やトレンドを全95ページで紹介
これがWeb 4.0? Microsoftが提唱する「Open Agentic Web」を解説 今までのWebサイトは“司書のいない図書館”Copyright © ITmedia, Inc. All Rights Reserved.