AIの安全性について研究する非営利の研究組織Future of Life Institute(FLI)は3月28日、GPT-4よりも強力なAIシステムの開発と運用を少なくとも6カ月間停止するように呼びかける書簡を公開し、本稿執筆現在1000人以上が署名している。イーロン・マスク氏や、米Appleの共同創業者、スティーブ・ウォズニアック氏の名前もある。
人類にとって深刻なリスクをもたらす可能性のある一般的なタスクにおいて、人間と競合するようになったAIシステムに対する懸念から提示された。現在のAI技術が安全性や倫理性の問題を引き起こす可能性があるため、研究者や開発者に対して、これらのリスクを十分に評価し、必要な対策を講じるよう呼びかけている。
また、AIがもたらす利益とリスクの均衡を保つために、国際的な協力と競争の制限が重要だと主張する。信頼性、アライメント、忠誠心などを確保するために必要な共通の安全プロトコルの開発と実施を提唱している。
一時停止がすぐに出来ない場合、政府が介入してモラトリアムを設定する必要があるともしている。
「サピエンス全史」で知られる作家のユヴァル・ノア・ハラリ氏、Stability AIのエマード・モスタークCEO、GoogleのLaMDAに貢献しているCharactar.aiのノーム・シェイザーCEOなども署名している。Googleやその傘下のDeepMind、Amazon、Microsoft傘下のGitHubなどのエンジニアの名前もあるが、今のところMicrosoft、OpenAI、MetaなどAIに注力している大手の幹部や従業員の名前はない。
MetaのチーフAIサイエンティストを務めるヤン・ルカン氏は「私はこの書簡に同意しないし、署名もしない」とツイートした。
【更新履歴:2023年3月29日午後9時10分 Yann LeCun氏のカタカナ表示を修正しました。】
GPT-4が労働市場に与える影響と各職種のリスク評価──OpenAIの研究者が論文発表
AIプロ集団から見た「ChatGPTの歴史」 たった5年で何が起こったのか
OpenAI、AGI(人間より賢いAI)へのロードマップを公表 「世界に深刻な害を及ぼす可能性」回避のために
Googleを解雇されたAI倫理研究者が指摘していた「大規模言語モデル」の危険性
人工知能(AI)の“ターミネーター化”防止目的の37の研究にFLIが総額700万ドル提供Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR