AIの利用で人間の“粘り強さ”が失われる――カーネギーメロン大学やオックスフォード大学などの研究チームは4月6日(現地時間)、そのような研究結果を公開した。人間がAIを利用することで短期的なパフォーマンスは向上するものの、ひとたびAIを利用すると、AIがない環境ではタスクを諦める可能性が高まるという。
「AI Assistance Reduces Persistence and Hurts Independent Performance」(AIによる支援は粘り強さを低下させ、自立したパフォーマンスを損なう)と題した論文では、AIの利用が人間の独力での問題解決能力と粘り強さに与える因果的影響を、1222人を対象としたランダム化比較試験で検証した。
実験はオンライン調査プラットフォームで3回実施された。参加者はAI利用群と対照群にランダムに割り当てられ、数学または読解問題を解くよう指示された。AI利用群の参加者は、AIを利用できる状態で回答した後、予告なしでAIを取り上げられた状態で残りの問題に回答した。対照群の参加者は全ての問題を自力で解くよう指示された。参加者の粘り強さを測るため、解答を入力せずに次の問題に移行できる「スキップ」ボタンが用意された。
結果は3実験とも一貫していた。AI利用群はAI利用中こそ高い正答率を示すが、AIを取り上げられた途端に正答率が落ち、スキップ率も上昇した。また、2回目の実験で「AIをどのように使用したか」をたずねたところ、「答えを直接得るため」にAIを使った参加者が最も成績を落とし、スキップ率も高かった。一方、ヒントや説明を求める使い方をした人や、ほぼ使わなかった人は、対照群と同等以上の成績を維持していた。
研究グループは、粘り強さの低下を2つのメカニズムで説明できる可能性を示唆した。第1に、AIが数秒で答えを返すことで「課題にかかるべき時間」の認識がずれ、自力での作業が相対的に苦痛に感じられるというもの。第2に、AIが正確な知識や自己認識を発達させるための試行錯誤の機会を奪うことで「自分に何ができるのか」を学ぶことができなくなるというもの。
論文は、人間の能力の長期的な向上に最適化した形でAIシステムを再設計すべきだと結論づけている。人間のメンターが時に「教えない」ことを選ぶように、AIもまた「助けない」判断ができるべきだ、というのが研究グループの提言だ。
Claude次世代モデル「Mythos」が一般公開されないワケ セキュリティ能力高すぎて「ゼロデイ攻撃自律開発」「出られないはずのサンドボックスから脱出」
LLMにも「愛ゆえの盲目」「絶望して脅迫」がある Claudeの“感情”が動作に影響――Anthropicが研究報告
株式投資にAIを使うと? Claudeは「コツコツ」、Geminiは「大胆」──見えた“性格の違い”Copyright © ITmedia, Inc. All Rights Reserved.