ITmedia NEWS > 社会とIT >

Googleを解雇されたAI倫理研究者が指摘していた「大規模言語モデル」の危険性Googleさん(2/2 ページ)

» 2020年12月07日 18時37分 公開
[佐藤由紀子ITmedia]
前のページへ 1|2       

 ディーンさんの言い分では「論文が公開の基準に満たなかったから」撤回を要求した、と。一応理由も説明していて、論文で指摘している問題点は、その後の研究でかなり改善されているのにそれに触れていない、とか。で、ゲブルさんの直属の上司、ミーガン・カコリアさん(白人女性)と相談して論文撤回を決めてゲブルさんに告げたところ、ゲブルさんが上記のような条件を出してその条件を飲まなければGoogleを辞める、と言ったので、(条件は飲まずに)彼女の決断を尊重したのだそうです。

 うーん。なるべく公平に見たいですが、この説明はやっぱりなんだか不自然。騒ぎはさらに広がり、2018年の抗議デモの際に有名になった#GoogleWalkoutの有志が署名運動を開始。

 これを書いている、署名運動開始後3日の時点で1604人のGoogler(Googleの従業員)と2512人の外の人々が署名しています。元GooglerでGoogleWalkoutの中心人物、今はニューヨーク大学で活躍しているメレディス・ウィテカー教授や、エレン・パオさんの名前もあります。

 こうした騒ぎになることくらい、頭のいいGoogleさんなら当然分かっていたはず。それでも、どうしても、撤回してほしかった論文ってどんなもんなんだろうと興味が湧きます。

 この論文を、Googleの外の人である共著者の1人が、公開前ですがMIT Technologyに提供しました。MIT Technologyは論文そのものではなく、その概要を記事にしています。

 mit MIT Technologyの記事

 論文のタイトルは「On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?」。膨大な量のテキストデータで学習させたAI、「large language models」(大規模な言語モデル)のリスクについて説明しています。大規模な言語モデルというのは、Googleさんの自然言語処理「BERT」OpenAIが公開した言語モデル「GPT」などのことですね。

 GPT-3のすごさは話題になっています。私のようなへっぽこライターよりよほどまともな文章が書けます。だけど論文は「こうした言語モデルの開発に関連する潜在的なリスクと、これらのリスクを軽減するための戦略について十分な考慮が払われているだろうか?」と問題提起しています。

 複数の問題点が挙げられています。膨大なデータを学習させるためにデータセンターをぶん回すのでCO2が増える(そこか?と思いましたが、数字を出されると納得)、トレーニングに使うテキストからちゃんと差別用語や暴力的な表現を削除できるのか(トレーニング用データはネットから集めていることが多いのでかなり問題な言葉が入っていそう)、ネット上であまり集められない少数民族の言語などは当然反映されにくいので、結果的に裕福な国やコミュニティの文化が偏って反映される、など。そしてもちろん、フェイクニュースが簡単に作れてしまう危険性も指摘。また、この言語モデルは内容を理解せずに単に言語を操作しているだけだと分かっているのに、収益が上がるからと大企業はこのモデルに投資し続けているとしています(多分Googleさんがかちんときたのはこの部分)。

 Googleは、昨年10月からBERTを英語での検索で採用しています。それを「BERT大丈夫なの?」と言われたら、Googleの屋台骨であるGoogle検索に問題があると言われるようなものです。

 AIの倫理問題は、私達普通の人々にとってもとても大事。AIはどんどん人の手を離れて勝手に成長していってしまうので、まだ幼い今、ちゃんと倫理問題を考えておかないと手遅れになりそうです。

 Googleさんには、AIの大きな担い手の1社として、この騒ぎをいい機会と捉えて軌道修正してほしいところです。

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.