AIに取り組む著名研究者、エンジニア、CEOなどのグループが5月30日(米国時間)、AIによる人類絶滅の危機について、新たな警告を発した。
「Statement on AI Risk」(AIリスクに関する声明)に署名したのだ。広く受け入れられるよう簡潔にまとめられたこの声明は、「Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.」(AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会的規模のリスクと並んで世界的な優先事項とすべきだ)というものだ。
この声明は、サンフランシスコに拠点を置く非営利団体Center for AI Safety(CAIS)が発出した。
チューリング賞を受賞したジェフリー・ヒントン博士とモントリオール大学のヨシュア・ベンジオ教授、米OpenAIのサム・アルトマンCEO、米Google DeepMindのデミス・ハサビスCEO、米Anthropicのダリオ・アモデイCEOなどが署名している。
日本からも、全脳アーキテクチャ・イニシアティブ代表の山川 宏氏、慶應義塾大学特別招聘教授の高橋恒一氏が署名している。
ヒントン氏らと同時にチューリング賞を受賞した米Metaのヤン・ルカン博士は署名していない。同氏は「人間を超えるAIはまだ存在しないので、リスクのリストの上位に位置づけるのはまだ早すぎる。せいぜい犬レベルのAIの基本設計ができるまでは、AIを安全にする方法を議論するのは時期尚早だ」とツイートした。
主なAI関連企業で署名した従業員がいない企業は、Apple、Amazon、Microsoft、Meta、NVIDIA、IBM、Intel、Salesforceなど。イーロン・マスク氏も署名していない。なお、GoogleMindの親会社であるGoogleも署名していない。(本稿執筆現在)
CAISのエグゼクティブディレクター、ダン・ヘンドリックス氏は米New York Timesに対し、声明を簡潔にしたのは、意見の相違を避けるためと語った。3月にFLIが公開したAI開発を6カ月停止するよう呼びかける署名運動に対しては、リスクは認めるが開発停止は解決にならないなどの批判が寄せられた。
CAISは「AIリスクの8つの例」という文書を公開している。この文書では、「AIがより高度になると、最終的には壊滅的なリスクや存続リスクを引き起こす可能性がある」としている。
AIは人間が作成したコンテンツと区別するのが難しいテキスト、画像、ビデオを生成できるようになりつつあり、偏見を永続させ、自律型兵器を強化し、誤った情報を広め、サイバー攻撃を実行するためにも使用される可能性がある。さらに、AIが自律的に行動できるようになれば、人間はAIを制御できなくなるリスクが高まる──とCAISは説明している。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR