2015年7月27日以前の記事
検索
連載

「AI軍事利用」を巡る“踏み絵”状態に AnthropicとOpenAI、判断が分かれた理由古田拓也「今更聞けないお金とビジネス」(2/2 ページ)

米国防総省がAI企業に対して安全対策(セーフガード)を撤廃し、軍によるAIの「あらゆる合法的な利用」に同意するよう求めた。米Anthropicはこの条件を拒絶し、政府によって「サプライチェーンリスク」に指定された。「正義のAnthropic」対「利益に走ったOpenAI」という善悪二元論も飛び交っているが、この事態の本質はもっと深いところにある。

Share
Tweet
LINE
Hatena
-
前のページへ |       

国防総省が強硬な姿勢を見せる深刻な事情

 しかし、Anthropicの姿勢を手放しで「正義」と呼ぶ前に、私たちの生活が軍事技術によって発達した側面がある点にも目を向けなければならない。

 私たちが毎日使っているGPSはもともと米軍が開発したものであり、インターネットの原型も国防に関する研究機関が作ったものだ。他にも缶詰やカーディガンなど、技術的なものでなくとも、かつては軍で作られた技術が民間に降りてくるのが普通だった。

 法律の面でも、AIはこれまでの常識を壊している。これまでは「ミサイルの部品」や「特定の化学物質」など、形のあるモノを輸出したり渡したりすることを規制していればよかった。

 しかし、AIは形のないプログラムであり、世界中の誰でもネット経由で使えてしまう。従来のモノの移動を前提とした古い法律では、AIがどのように広まり、どのように悪用されるかを完全に見張ることは不可能に近い。

 国防総省が強硬な姿勢を見せるのにも理由がある。ライバル国が開発するAIには「兵器には使わない」といった自己制限が存在しない可能性がある。米国の企業だけが倫理を理由にブレーキをかけていれば、軍事的な力関係で一気に追い抜かれてしまう可能性もあるわけだ。

 軍の情報分析や物資の管理といった正当な目的のために最新技術を自由に使えるようにすることは、国を守る立場からすれば譲れない一線でもある。

Anthropic、OpenAI両社に見える「矛盾」

 今回の対立をよく見てみると、どちらの側にも矛盾がある。

 Anthropicは米国政府や軍のデータ統合・分析・作戦支援システムを手掛ける米Palantir Technologies(パランティアテクノロジーズ)のような企業と協力している側面がある。一方で、契約を結んだOpenAIも「安全は守る」と言いつつ、軍の広範な利用を認めるような曖昧(あいまい)な言葉を使っている。結局のところ、どちらの企業も完全に潔白とは言い難い。


(写真はイメージ、ゲッティイメージズ)

 一番大きな問題は、この技術の使い方を誰が決めるべきなのか、というルールがまだ決まっていないことだ。国が一民間企業に口出しするのも異例だが、その混乱の本質は、技術が進むスピードに世の中の法律や議論が全く追い付いていないことにある。

 結局のところ、AIを軍事でどう使うかという問題は、一企業の利用規約や、SNSでの反対運動、あるいは大統領の命令だけで解決できるものではないだろう。原子力や生物兵器などと同じように、AIの戦争利用に関しても条約レベルで透明性の高い国際的なルールを作る必要がある。

 この点について、企業の経営者は、自社のAI戦略がいつ国家の論理や消費者の倫理と衝突してもおかしくない時代にいることを覚悟しなければならない。AIガバナンスを単なるリスク管理や法務の問題と捉えるのではなく、ブランド価値と顧客信頼を維持するための経営判断として位置付けることが不可欠だ。

 今回の騒動は善か悪かという二元論ではない。AIに関して誰もルールを決めていないという、大きな社会の欠陥を私たちに突きつけているのである。

Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る