イーロン・マスク氏、ホーキング博士、ウォズニアック氏ら、AI自律型兵器禁止を呼び掛け
AI(人工知能)研究の発展により、数年後には技術的に自律型兵器の開発が可能になってしまうとして、そうした兵器開発を禁止するべきだと研究者や企業幹部らが公開書簡で呼び掛けた。
「人工知能(AI)研究の発展により、数十年ではなく数年後には、自律型兵器(autonomous weapon)の開発が可能になり、その代償は大きいだろう。自律型兵器は、火薬、核兵器に続く、戦争における第三の革命とみなされている」──。主に人工知能(AI)の安全性について研究する非営利の研究組織Future of Life Institute(FLI)は7月28日(現地時間)、アルゼンチンのブエノスアイレスで開催のIJCAI(人工知能国際会議)2015のオープニングで自律型兵器の開発禁止を呼び掛ける公開書簡を発表した。
書簡の著者らは、人間の判断を介さない自律型兵器の使用は、戦闘開始の閾値を低くし、結果的に大規模な人命損失につながると主張する。また、AI兵器は核兵器と比較して開発が容易で低コストな上、監視が困難だ。さらに、コピーも比較的簡単なこともあり、ブラックマーケットに出回り、すぐに暗殺やテロに使われることになる恐れがあるという。「自律型兵器は未来のカラシニコフ銃になる」。
FLIはSkypeの共同創業者ジャーン・タリン氏やと米マサチューセッツ工科大学のマックス・テグマーク教授らが立ち上げた研究組織。イーロン・マスク氏、スティーブン・ホーキンス博士、人工知能研究で知られるスチュワート・ラッセル教授らが顧問として名を連ねている。
この書簡には、タリン氏、マスク氏、ホーキンス博士、ラッセル教授などのFLI創業者や顧問に加え、米Appleの共同創業者であるスティーブ・ウォズニアック氏、Google傘下のDeepMindのデミス・ハサビスCEO、ヒューマノイドロボット研究で知られる東京大学の中村佳彦教授、Microsoft Researchのエリック・ホロヴィッツ氏、Facebook人工知能ラボのヤン・ルカン教授、哲学者のノーム・チョムスキー氏など、1000人以上が署名している。
関連記事
- 拳銃を撃つドローンの動画が投稿される
拳銃を搭載したドローンが飛行しながら発砲する動画がYouTubeに投稿されている。 - 人工知能(AI)の“ターミネーター化”防止目的の37の研究にFLIが総額700万ドル提供
AIの安全性を研究する非営利団体Future of Life Instituteが、選抜した37の研究チームに総額700万ドルを提供する。例えばAIに態度から相手の好みを推測する人間のような能力を与える研究などが選ばれた。 - 人工知能の“ターミネーター化”を防ぐ研究にイーロン・マスク氏が1000万ドル寄付
TeslaやSpaceXの創業者、イーロン・マスク氏が、人工知能(AI)を人間にとって安全で役立つものにするための研究を行っている非営利組織FLIに1000万ドル(約12億円)寄付した。 - Facebook、人工知能研究ラボを立ち上げ
Facebookが人工知能(AI)、機械学習、データ科学を研究するためのラボを立ち上げ、ニューヨーク大学Center for Data Scienceの教授を所長に迎えた。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.