AI開発停止要求署名は無意味、透明性と説明責任の改善を──Hugging Faceのルッチョーニ博士
イーロン・マスク氏などが署名した「GPT-4より強力なシステム開発を停止せよ」という公開書簡について、AI研究者が「非現実的で不必要」と評した。それよりもガイドラインを作成し、透明性と説明責任を改善すべきだと主張する。
「GPT-4よりも強力なAIシステムの開発を停止せよ」という署名運動は、「非現実的で不必要」だと、オープンソースのAIコミュニティー「Hugging Face」を運営する米Hugging FaceのAI研究者、サーシャ・ルッチョーニ博士が米Wiredへの寄稿で提言した。
この署名運動は、AIの安全性について研究する非営利の研究組織Future of Life Institute(FLI)が3月28日に公開した。「人間と競合する知能を持つAI」は人類に重大なリスクをもたらすと主張し、AIの危険性が適切に評価されるまで、少なくとも開発を6カ月停止するよう求めている。米OpenAIの立ち上げに参加したがその後袂を分かったイーロン・マスク氏や、米Apple共同創業者のスティーブ・ウォズニアック氏など3000人以上が署名した。
ルッチョーニ氏は、この呼びかけは曖昧なだけでなく、実行不可能だと主張。また、書簡ではあたかも超人的なAIが完成しているように表現しているが、現在のAIはまだ超人的と呼ぶには程遠いとし、「失敗に注目するのではなく、成功する要素を定義することが重要」と語る。
そのためには、ガイドラインを作成し、透明性と説明責任を改善すべきだと主張する。
OpenAIなどの当事者は、トレーニングデータの出どころ、モデルのトレーニングに使っているコード、セーフティフィルタの実装方法などの技術的な詳細について、より透明性を持たせるべきだとしている。また、外部監査も可能にすべきだという。
「AIモデルの開発者とそのユーザーの双方が、現在の問題に関する法律の策定を支援するべきだ。われわれのデータが使われ、われわれの生活が影響を受けているのだ」。「開発者とユーザーが共に、AIの立法化を目的とした民主的なプロセスに参加し、不透明なシステムの使用を拒否し、第三者の監督と説明責任を要求していく」必要があるとしている。
関連記事
- 「GPT-4より強力なAIの開発を直ちに停止せよ」──公開書簡にマスク氏やウォズニアック氏が署名
非営利のAI研究組織FLIは巨大AI実験の一時停止を求める書簡を公開した。「GPT-4より強力なAIの開発を少なくとも6カ月停止せよ」としている。マスク氏やウォズニアック氏、「サピエンス全史」のハラリ氏などが署名済みだ。 - 画像AIを調べると必ず出てくる謎のサイト「Hugging Face」ってナニモノ? 正体は急成長中の“ユニコーン”
画像生成AIについて調べていると、必ずと言っていいほど行き当たる「Hugging Face」とはなにか。実は、急成長中のAIユニコーン企業だ。どんなサービスを提供しているのか、どんな企業なのかを解説する。 - AWSとHugging Faceが連携を強化 「生成系AIをよりアクセスしやすく、費用対効果が高いものに」
米AWSが、オープンソースコミュニティー「Hugging Face」を運営する米Hugging Faceとの連携を強化。「2社が協力し、生成系AIをよりアクセスしやすく、費用対効果の高いものにする」という。 - Googleを解雇されたAI倫理研究者が指摘していた「大規模言語モデル」の危険性
AI界隈で一目置かれているGoogleの倫理的AIチームリーダー、ティムニット・ゲブルさんが突然解雇されたとツイート。ゲブルさんは黒人女性ですが、発表しようとしていた言語モデルの問題点についての論文が原因のようです。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.