このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高いAI分野の科学論文を山下氏がピックアップし、解説する。
X: @shiropen2
米プリンストン大学とカナダと米国のMicrosoftに所属する研究者らが発表した論文「“I’m Not Sure, But…”: Examining the Impact of Large Language Models’ Uncertainty Expression on User Reliance and Trust」は、自信がない回答をする大規模言語モデル(LLM)に対して人々はどう反応するかを調査した研究報告である。
LLMは、人間のように流ちょうで説得力のある文章を生成できるが、その内容が常に正しいとは限らない。LLMが間違った情報を提示した場合、ユーザーがそれをうのみにしてしまう「過度な依存」が問題視されている。この問題に対処するため、LLMが出力の不確実性(自信がない表現)をユーザーに伝えることが提案されているが、その効果を実証的に検証した研究はほとんどない。
そこで、この研究では404人の参加者を対象に、架空のLLMを搭載した検索エンジンを使った情報探索タスクを行ってもらった。タスクは、用意したLLMなどを駆使して医療に関する質問8つに回答するというもので、その際にAIの情報を信用するかどうかを調べた。参加者は、以下の4つのグループに分けられた。
ただし、AIの回答が正しいのは4つ、間違っているのは4つある。また正解・不正解のそれぞれ半分にのみ不確実性表現が含まれるよう設定されている。
実験の結果、AIの回答に同意した割合は、グループ1の80.9%に対し、グループ2では74.8%と有意に低く、グループ3でも77.6%と低かった。AIの回答に対する参加者の自信も似た割合であった。つまり、自信がない回答をされるとAIに対する参加者の自信と同意する傾向が下がった。
その一方、参加者の最終的な回答の正確さは、グループ1の63.9%に対し、グループ2では72.8%と有意に高く、グループ3も67.9%とやや高かった。この結果は、参加者のAIに対する過度な依存が減った可能性(完全には排除されない)を示唆する。
続いて、グループ1ではLLMとは別にネット検索をする割合が19.1%だったのに対し、グループ4では92.9%だった。またAIの回答が不確実性を含む場合、AIの回答を利用する割合が有意に低下し、独自検索をする割合が上昇した。さらに、AIの回答が不確実性を含む場合、回答時間が長くなる傾向があった
要するに、AIが答えに自信がないと言うと、人々はその出力に対して警戒心を強め、最終的には他の場所で正確な情報を探し出すということである。もっというと、グループ4の回答の正確さは74.2%とさらに高かったため、LLMを全く利用せずに、始めからネット検索した方が正確な回答を導けることを示唆した。
参加者の自由回答を分析したところ、多くが不確実性表現をLLMの能力の限界や質問の難しさの表れと解釈していた。一方、一部は単なる「印象操作」や「信頼性の維持」「法的責任の回避」などと捉えていた。
Source and Image Credits: Kim, Sunnie SY, et al. “” I’m Not Sure, But…”: Examining the Impact of Large Language Models’ Uncertainty Expression on User Reliance and Trust.” arXiv preprint arXiv:2405.00623(2024).
LLMが別のLLMを何度も改善 より良い回答を出す最適化手法をAIが発見する技術 Sakana AIなどが開発
米Appleの独自AI「Apple Intelligence」の技術詳細 基盤モデルや学習データなどを解説
「自称オープンソース生成AI」は本当に“オープン”なのか? 45種のAIモデルをオランダの研究者らが調査
ChatGPT vs. Wikipedia──生成AIの登場でウィキペディアはどう変わったか? 英国の研究者らが調査
経済アナリスト vs. GPT-4──生成AIは金融投資にどれくらい使える? 米シカゴ大が研究報告Copyright © ITmedia, Inc. All Rights Reserved.