「実は人類はAIに支配されていたんだ!」「な、なんだってー!?」とまではいかないものの、大規模言語モデルによる生成AIが仕事に使えるほどのパフォーマンスを見せて以降、「人類は進化するAIとどう付き合っていくべきか」という議論が本格化している。
ここでキーワードとなるのが「アライメント」(Alignment)だ。「整列、連携、調整」といった意味で、AIの文脈では「安全のための調整」という意味合いが強い。
例えば米OpenAIが「GPT-4」を発表した際の文中にも「align」は6回出てきており、抜き出して翻訳すると「GPT-4のアラインに6カ月間を費やした」「アライメント戦略」「50人以上の専門家に協力を依頼した、例えばAIアライメントリスク分野〜」など、アライメントを重視している様子が伺える。
AIの最前線に立つ研究者たちは、AIにどんなリスクを見出し、アライメントの議論をしているのだろうか。
今回の記事は、AIアライメントに関心を寄せる2人の研究者、東京大学松尾研究室主幹研究員にしてドワンゴ人工知能研究所元所長の山川宏さん、AI×ニューロテックを掲げるベンチャー企業アラヤを創業した神経科学者の金井良太さんと、アニメ「AIの遺電子」原作者の山田胡瓜さんとの鼎談をお届けする。
(聞き手・執筆:井上輝一)
山田 アライメントはやっぱり海外の方が全然進んでいるというか、議論が活発ですか。
山川 近い表現には「AIセーフティ」がありますがこれは非常に幅が広くて、プライバシーの問題とか創作物の権利みたいな意味での議論は、普通に日本でも進んでいます。
一方で、エリザー・ユーコフスキー(Eliezer Yudkowsky, 米非営利研究機関の機械知能研究所に所属するAI研究者)が提唱するような「人類存亡リスク」(Existential lisk)に近い話は日本では少ないですね。最近みんなが気にし始めてますが、少なくとも半年前だとバカにされるだけみたいな世界でしたね。
山田 でもアライメントも幅が広いような気がしています。そういう「AIに支配されちゃやばいでしょ」みたいなSFっぽいとこもあれば、「ChatGPTが悪口を言わないように」というのもアライメントですよね。どこを取るかによって結構捉え方も変わっちゃうなというような言葉だなとは思っていたんですけど。
金井 僕、この前参加したカンファレンスで感じたのは、西洋の人と日本人で文化的な違いなのか、AIアライメントに対する考え方が全然違うんですね。
山田 よく言われますね。
金井 これって宗教みたいだなと。多分宗教は、神様がどうだったって過去の話をしていて、そういう超自然的なことみたいなのは今の人たちはもう受け入れないんだけれど、人間が未来にこういうものを作ってしまう、みたいなものでみんな勝手に信念を持つことができている。
だから「AIが世界を滅ぼす」みたいな考え方って割と西洋の一神教的な世界観で、一方の日本ではアニメでも描かれるように、だいたい全般的にハッピーエンドな感じ。
山川 欧米人はAIをコントロールしたいんですね、コントロールしようと思ってすごい情熱をかけて頭の良い人がずっとやっているんだけど、自分より頭が良いものをコントロールするのは土台難しいんですよね。
山川 僕は、AIや高度なAI、AGI(汎用人工知能)とうまくやっていく選択肢は何個か分岐点があると思っています。
昔言われていたのは「AGIは作れません」という分岐点で、それはそれでよかったわけですよね。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR