GPT-4開発停止を求める公開書簡 内容の妥当性をAI専門家に聞いてみた

Future of Life Instituteは次世代言語モデル「GPT-4」よりも強力なAIの開発を最低でも6カ月間直ちに停止するように呼びかける公開書簡を発表した。この内容は妥当なのか。AI専門家に聞いてみた。

» 2023年04月03日 14時50分 公開
[田渕聖人ITmedia]

この記事は会員限定です。会員登録すると全てご覧いただけます。

 Future of Life Institute(以下、FLI)は2023年3月28日(現地時間)、次世代言語モデル「GPT-4」よりも強力なAI(人工知能)の開発を最低でも6カ月間直ちに停止するように呼びかける公開書簡を発表した。同組織は、AI(人工知能)によるリスクなど軽減するために活動している非営利団体である。

 同書簡には本稿執筆時点で2900以上の署名が集まっており、イーロン・マスク氏やスティーブ・ウォズニアック氏、ユヴァル・ノア・ハラリ氏など著名人の名前も多数含まれる。

FLIの公開書簡(出典:FLIのWebサイト)

公開書簡の内容は妥当? AI専門家に聞いてみた

 公開書簡は、「人間と競合する知性を備えたAI」が社会と人類に重大なリスクをもたらす可能性があると懸念しており、GPT-4よりも強力なAIシステムのトレーニングを少なくとも6カ月間直ちに一時停止するよう求めている。この内容の妥当性を、AIリスクの解決に取り組む企業Robust Intelligenceの大柴行人氏(Co-founder)に聞いた。

Robust Intelligenceの大柴行人氏

 大柴氏は「『AIリスクが重要なイシューになっている』という問題意識については妥当ですが、そのリスクへの言及の仕方や求めている措置は問題があると考えています」と指摘する。

 「評価できるのは、公開書簡内に『誤情報の拡散』などのAIリスクに言及がある点です。実際『ChatGPT』にもすでに多くのリスクが発見されています。例えば事実ではない発信をしてしまう問題や差別的出力が発生している他、個人情報をAIから引き出すようなサイバー攻撃も可能です。社会がこうしたリスクへの対応を検討する必要性があるということは確かです」(大柴氏)

 だが必ずしも賛同できない表現もあるようだ。大柴氏は「公開書簡の内容には、AIに対して『制御不可能』『全ての仕事が自動化される』といった、必ずしも現状にそぐわない表現が含まれており問題です。いたずらに『AI脅威論』を煽ることは、先ほど述べたような、今AIが直面している課題の解決に寄与せず、技術の進歩を阻害します」と話す。

 また、書簡内の「6カ月の開発停止」という措置にも問題あると大柴氏は指摘する。「確かに現状のOpenAIの開発方針に、AIリスクの側面への目配りが不足していることは事実です。しかし開発停止では問題は解決しません。むしろ、技術の発達を止めることは、より安全性の高い大規模言語モデル(LLM)を作ろうとする努力や、AIガバナンスの議論をも止めてしまい、長期的には逆効果です」(大柴氏)

 大柴氏は、「そもそもAIリスクの問題は、AI開発会社やAIリスクの解決に取り組む会社、行政機関などさまざまなプレイヤーが相互に情報を交換しながら、業界ごともしくはイシューごとにひもといて解決していくべきものです」と指摘する。例えば、Robust Intelligenceはオープンソースの「AI Risk Database」を構築するなどして、そうした動きに参加している。

 「社会としてAIのリスクに目を向けることは重要ですが、その議論が極端に走ることなく、建設的にリスク管理を進める方向に向かうことを期待しています」(大柴氏)

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ