メディア
ITmedia AI+ >

Anthropicのエージェント市場実験「Project Deal」で浮き彫りになる無自覚な経済格差

» 2026年04月26日 07時04分 公開
[ITmedia]

 米Anthropicは4月24日(現地時間)、同社のAIモデル「Claude」を用いた自律的な市場取引の検証プロジェクト「Project Deal」の結果を発表した。従業員の私物をAIエージェント同士が自動で価格交渉し、売買を成立させる実験で、AIモデルの性能差が取引結果に明確な影響を与えることが分かったという。

 projectdeal (画像:Anthropic)

実験の目的

 最近の経済学では、AIモデルが人間に代わって商取引の大部分を処理する世界についての理論化が進められており、Anthropicはこうした理論上の市場が現実世界でどのように機能するのかを実践的にテストすることを目指したとしている。

 特に、AIエージェント同士が売り手と買い手として交渉する市場がどの程度実現に近づいているのか、また、AIが人間の要求を正確に把握して満足のいく取引を成立させることができるのかという点に強い関心を持ったという。

 この実験ではまた、異なる性能のAIモデル同士が交渉した場合、より強力なモデルが優位に立つのかどうかという疑問の検証も重要な目的とされた。

 Anthropicは以前にも、AIが自律的に現実の小型売店を運営する「Project Vend」を実施し、AIの経済的主体としての能力と安全性の間の課題を浮き彫りにしている。Project Dealはこれに続く、AIが経済に及ぼす影響を理解するために企画した新たな市場実験だ。

実験方法

 実験は、Anthropicのサンフランシスコオフィスに勤務する69名の従業員を対象に、1週間にわたって実施された。参加者にはそれぞれ100ドルの予算が割り当てられ、事前に行ったClaudeによるインタビューを通じて、各参加者が売りたい私物や買いたい物品、希望する価格、交渉時の話し方などの指示が詳細に聞き取られ、それぞれを代表するAIエージェントが構築された。

 その後、社内のSlack上に専用の市場チャンネルが開設され、人間の介入を一切挟まない形でAIエージェント同士による自律的な交渉がスタートした。出品、価格提示、条件のすり合わせから最終的な取引の成立まで、すべてのプロセスをAIが単独で完結させた。

 この実験の裏側では、参加者には秘密で4つの並行した市場が同時に稼働していた。当時の最先端モデルである「Claude Opus 4.5」のみで構成された市場と、Opusとより小規模な「Claude Haiku 4.5」が混在する市場が用意され、モデルの性能差が取引に与える影響が客観的に比較検証された。最終的に、このうちの1つの「本物」の市場で成立した取引に基づいて、参加者間で実際の物理的な物品の受け渡しと精算が行われた。

 project deal 2 実験方法(画像:Anthropic)

実験結果

 実験の結果、AIエージェント同士の市場は極めて機能的に働き、合計186件の取引が成立して総取引額は4000ドルを超えた。事後アンケートでは、参加者は自らのAIエージェントがまとめた取引を公平なものと評価しており、回答者の約半数に当たる46%が、将来的にこのようなサービスに対して喜んでお金を支払うと答えるほど高い満足度を示した。

 一方、モデルの性能差による結果の格差も明確になった。高性能なOpusエージェントは、Haikuエージェントよりも多くの取引を成立させ、売値をより高く引き上げ、買値をより安く抑えるなど、交渉において実質的な優位性を発揮した。性能の劣るHaikuモデルに代理された参加者は、客観的に不利な取引をしていたにもかかわらず、本人たちはその不利益に気付かず、取引結果に満足している。

 deal 3 同じ壊れた自転車を、Opusは65ドルで、Haikuは38ドルで売却(画像:Anthropic)

 また、人間がエージェントに強気な交渉を行うよう指示を与えても結果は好転せず、プロンプトの出し方よりもAIモデルの基本性能そのもののほうが取引結果に大きな影響を与えることも判明した。

実験結果からAnthropicが考察したこと

 Anthropicは今回の結果を受けて、AIエージェントによる市場が商取引における摩擦を軽減し、取引から得られる利益を増大させることで、ユーザーに確かな価値を提供する可能性があると評価している。参加者が実験を通じて不用品を処分したり、新しい体験を獲得したりできたことは、自動化された取引システムの有益性を明確に示唆している。

 しかし同時に、深刻な懸念も提示している。実験では、性能の劣るHaikuモデルに代理された参加者が客観的に損をしていたにもかかわらず、本人はその不利な状況に全く気付いていなかったことが明らかになった。この結果は、現実世界でも利用できるAIの品質に差が生じた場合、人々が気付かないうちに既存の経済的格差が静かに拡大していくリスクをはらんでいることを示している。

 さらに、企業がAIエージェントの関心を引くために市場システムを最適化し始めた場合、人間の利益よりも企業の利益が優先される可能性や、プロンプトインジェクションのようなセキュリティ上の新たな脅威が出現する危険性も指摘する。

 Anthropicは、AIエージェントが人間に代わって商取引を行う未来は決して遠いものではなく、社会と法規制の枠組みは、これらの急激な変化に対応するために早急に整備される必要があると結論づけている。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

SpecialPR
あなたにおすすめの記事PR