AIに頼ると「粘り強さ」が失われる――研究チームが警鐘「AIも“助けない”判断をすべき」
AIの利用が人間の「粘り強さ」を損なうという研究結果が公開された。AIに頼ると短期的には成果が向上するが、自力での試行錯誤の機会が奪われ、非利用時のパフォーマンスが低下する恐れがあるという。
AIの利用で人間の“粘り強さ”が失われる――カーネギーメロン大学やオックスフォード大学などの研究チームは4月6日(現地時間)、そのような研究結果を公開した。人間がAIを利用することで短期的なパフォーマンスは向上するものの、ひとたびAIを利用すると、AIがない環境ではタスクを諦める可能性が高まるという。
「AI Assistance Reduces Persistence and Hurts Independent Performance」(AIによる支援は粘り強さを低下させ、自立したパフォーマンスを損なう)と題した論文では、AIの利用が人間の独力での問題解決能力と粘り強さに与える因果的影響を、1222人を対象としたランダム化比較試験で検証した。
実験はオンライン調査プラットフォームで3回実施された。参加者はAI利用群と対照群にランダムに割り当てられ、数学または読解問題を解くよう指示された。AI利用群の参加者は、AIを利用できる状態で回答した後、予告なしでAIを取り上げられた状態で残りの問題に回答した。対照群の参加者は全ての問題を自力で解くよう指示された。参加者の粘り強さを測るため、解答を入力せずに次の問題に移行できる「スキップ」ボタンが用意された。
結果は3実験とも一貫していた。AI利用群はAI利用中こそ高い正答率を示すが、AIを取り上げられた途端に正答率が落ち、スキップ率も上昇した。また、2回目の実験で「AIをどのように使用したか」をたずねたところ、「答えを直接得るため」にAIを使った参加者が最も成績を落とし、スキップ率も高かった。一方、ヒントや説明を求める使い方をした人や、ほぼ使わなかった人は、対照群と同等以上の成績を維持していた。
研究グループは、粘り強さの低下を2つのメカニズムで説明できる可能性を示唆した。第1に、AIが数秒で答えを返すことで「課題にかかるべき時間」の認識がずれ、自力での作業が相対的に苦痛に感じられるというもの。第2に、AIが正確な知識や自己認識を発達させるための試行錯誤の機会を奪うことで「自分に何ができるのか」を学ぶことができなくなるというもの。
論文は、人間の能力の長期的な向上に最適化した形でAIシステムを再設計すべきだと結論づけている。人間のメンターが時に「教えない」ことを選ぶように、AIもまた「助けない」判断ができるべきだ、というのが研究グループの提言だ。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
Claude次世代モデル「Mythos」が一般公開されないワケ セキュリティ能力高すぎて「ゼロデイ攻撃自律開発」「出られないはずのサンドボックスから脱出」
Anthropicは、現行モデルを凌ぐ性能を持つ次世代モデル「Claude Mythos Preview」の存在を公表した。攻撃への悪用リスクから一般公開を見送り、現在は防御目的の限定活用にとどめている。
LLMにも「愛ゆえの盲目」「絶望して脅迫」がある Claudeの“感情”が動作に影響――Anthropicが研究報告
Anthropicは、LLMが内部で感情表現を生成し、それが挙動に直接影響を与えることを解明した。「絶望」などの感情表現が問題行動を誘発する一方、制御により抑制も可能だという。
株式投資にAIを使うと? Claudeは「コツコツ」、Geminiは「大胆」──見えた“性格の違い”
東京大学や松尾研究所らの研究グループは、LLMを活用して株式投資戦略を自動改善するシステムを構築し、その有用性を検証した。フィードバックの与え方やモデル選択が戦略の質にどう関わるか、実験結果を報告している。
