ITmedia NEWS > 社会とIT >
ITmedia AI+ AI活用のいまが分かる

AI開発停止要求署名は無意味、透明性と説明責任の改善を──Hugging Faceのルッチョーニ博士

» 2023年04月05日 09時41分 公開
[ITmedia]

 「GPT-4よりも強力なAIシステムの開発を停止せよ」という署名運動は、「非現実的で不必要」だと、オープンソースのAIコミュニティー「Hugging Face」を運営する米Hugging FaceのAI研究者、サーシャ・ルッチョーニ博士が米Wiredへの寄稿で提言した。

 wired

 この署名運動は、AIの安全性について研究する非営利の研究組織Future of Life Institute(FLI)が3月28日に公開した。「人間と競合する知能を持つAI」は人類に重大なリスクをもたらすと主張し、AIの危険性が適切に評価されるまで、少なくとも開発を6カ月停止するよう求めている。米OpenAIの立ち上げに参加したがその後袂を分かったイーロン・マスク氏や、米Apple共同創業者のスティーブ・ウォズニアック氏など3000人以上が署名した。

 ルッチョーニ氏は、この呼びかけは曖昧なだけでなく、実行不可能だと主張。また、書簡ではあたかも超人的なAIが完成しているように表現しているが、現在のAIはまだ超人的と呼ぶには程遠いとし、「失敗に注目するのではなく、成功する要素を定義することが重要」と語る。

 そのためには、ガイドラインを作成し、透明性と説明責任を改善すべきだと主張する。

 OpenAIなどの当事者は、トレーニングデータの出どころ、モデルのトレーニングに使っているコード、セーフティフィルタの実装方法などの技術的な詳細について、より透明性を持たせるべきだとしている。また、外部監査も可能にすべきだという。

 「AIモデルの開発者とそのユーザーの双方が、現在の問題に関する法律の策定を支援するべきだ。われわれのデータが使われ、われわれの生活が影響を受けているのだ」。「開発者とユーザーが共に、AIの立法化を目的とした民主的なプロセスに参加し、不透明なシステムの使用を拒否し、第三者の監督と説明責任を要求していく」必要があるとしている。

Copyright © ITmedia, Inc. All Rights Reserved.