2015年7月27日以前の記事
検索
連載

「AI軍事利用」を巡る“踏み絵”状態に AnthropicとOpenAI、判断が分かれた理由古田拓也「今更聞けないお金とビジネス」(1/2 ページ)

米国防総省がAI企業に対して安全対策(セーフガード)を撤廃し、軍によるAIの「あらゆる合法的な利用」に同意するよう求めた。米Anthropicはこの条件を拒絶し、政府によって「サプライチェーンリスク」に指定された。「正義のAnthropic」対「利益に走ったOpenAI」という善悪二元論も飛び交っているが、この事態の本質はもっと深いところにある。

Share
Tweet
LINE
Hatena
-

筆者プロフィール:古田拓也 株式会社X Capital 1級FP技能士

FP技能士センター正会員。中央大学卒業後、フィンテックスタートアップにて金融商品取引業者の設立や事業会社向けサービス構築を手がけたのち、広告DX会社を創業。サム・アルトマン氏創立のWorld財団における日本コミュニティスペシャリストを経てX Capital株式会社へ参画。


 米国防総省がAI企業に対して安全対策(セーフガード)を撤廃し、軍によるAIの「あらゆる合法的な利用」に同意するよう求めた。

 米Anthropicはこの条件を拒絶。2月27日の期限になっても妥協を拒んだAnthropicを、政府は「サプライチェーンリスク」に指定した。これは通常、敵対国の企業に適用される措置であり、自国企業への適用は極めて異例だ。

 そのわずか数時間後、競合の米OpenAIが国防総省と新たな大規模契約を結んだと発表した。

 これは、AI企業と国家との利害対立による「踏み絵」に近い構図を表している。

 ネット上では「正義のAnthropic」対「利益に走ったOpenAI」という善悪二元論も飛び交っているが、この事態の本質はもっと深いところにあるのではないだろうか。

AnthropicとOpenAIの判断は、なぜ分かれたのか

 Anthropicはこれまで、国防総省の機密ネットワークにおいて、対話型AI「Claude」を提供できる希有(けう)な企業として、ある種の特権的な立場にあった。

 最大2億ドル規模ともいわれたこの契約には「大量監視には使わない」「(AIが)勝手に判断して攻撃する兵器には使わない」という、2つの厳しい安全ルールが含まれていた。これがボトルネックとなり、最終的にはOpenAIが2億ドルの契約を勝ち取った(※)。

※なお、OpenAIはその後、米国市民の監視にAIサービスを使用しないと強調している

 この騒動に対し、一般のユーザーは敏感に反応した。SNS上では「#CancelChatGPT」というボイコット運動が広がり、OpenAIから離れて、より倫理的と感じられるAnthropicへ乗り換える動きが急増した。

 その結果、Anthropicのアプリは全米のアプリストアで首位に立ち、新規の登録者数が急増。3月3日には一時的にシステムが止まるほどの混乱が起きた。

 これは現代の消費者にとって、単なるAIの性能や便利さだけではなく、その企業の思想に対する信任も購入や利用を決める大きな要素となっていることを意味している。

Copyright © ITmedia, Inc. All Rights Reserved.

       | 次のページへ
ページトップに戻る