メディア
ITmedia AI+ >

“スケールアップだけ”で「AGI」は実現できるのか? 情報幾何学の第一人者、甘利俊一氏の警鈴(1/2 ページ)

» 2025年02月25日 14時30分 公開
[斎藤健二ITmedia]

 大規模言語モデルをはじめとする現代のAI開発は、モデルの大規模化によって急速な進展を遂げている。しかし、この「スケールアップ」に依存した開発手法に対して、情報幾何学の第一人者である甘利俊一氏(帝京大学先端総合研究機構特任教授、東京大学名誉教授)が警鐘を鳴らした。

情報幾何学の第一人者である甘利俊一氏(帝京大学先端総合研究機構特任教授、東京大学名誉教授)

 2月7日に開催された東京大学Beyond AI研究推進機構の国際シンポジウムで、甘利氏は「現代のAIは単にスケールアップしているだけの方向で動いており、理論がそれに追い付いていない」と指摘。大規模化がもたらす成果の本質的な理解と、より効率的なアプローチの可能性を模索する必要性を訴えた。

理論的理解が追い付かない現状

 現代のAIは「確率論的勾配強化学習に依存している」と甘利氏は指摘する。これは、AIモデルが大量のデータを学習する際、確率的な手法を用いて少しずつモデルの挙動を改善していく手法を指す。近年、ChatGPTに代表される大規模言語モデルでは、この手法を用いながらモデルの規模を拡大する「スケールアップ」が主流となっている。具体的には、モデルのパラメータ(学習可能な要素)の数を数千億規模まで増やし、より多くのデータで学習させることで性能向上を図るアプローチだ。

 こうしたディープラーニングの進歩は目覚ましく、2024年のノーベル物理学賞と化学賞でAIに関する研究が受賞するなど、その成果は科学界からも高い評価を受けている。

 しかし、その一方で「理論が大幅に遅れている」と甘利氏は警告を発する。モデルの大規模化によって実用的な成果は得られているものの、「なぜ大規模なスケールアップがいいのか分かってこない」という根本的な課題が存在するという。AIの研究者として1960年代から理論研究に取り組んできた甘利氏は、「スケールアップで何かが現れるのかもしれない。でもそれでは何が発現したのか分からない」と、現状の開発アプローチに対する懸念を示した。

       1|2 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ