メディア
ITmedia AI+ >

米OpenAI、汎用人工知能“AGI”開発中か コードネームは「ストロベリー」

» 2024年07月16日 15時03分 公開
[ロイター]

 米OpenAIがコードネーム「Strawberry」(ストロベリー)というAIの推論技術の開発プロジェクトに取り組んでいる。ストロベリーは2023年に報じられた、汎用人工知能(AGI)の開発プロジェクト「Q*」(Qスター)のこと。Q*は、科学や数学の複雑な質問に回答できたという。

米OpenAI、汎用人工知能“AGI”開発中か

 関係筋は、プロジェクトは進行中だと述べた。ストロベリーがどのように機能するかは、OpenAI内部でも厳しく情報管理されているという。英Reutersが5月に閲覧したOpenAIの内部文書(写し、日付は未確認)によると、プロジェクトでは、ストロベリーで質問への回答を生成するだけでなく、インターネットを自律的かつ確実にナビゲートし、OpenAIが言うところの「ディープリサーチ」を実行できるようにすることを目指す。

 Reutersがインタビューした十数人のAI研究者は「これはこれまでAIモデルが実現できなかったことだ」と述べた。

 OpenAIの広報は、ストロベリーに関する質問への回答は控える一方で「当社のAIモデルが私たちと同じように世界を見て理解することを望んでいる。新たなAI機能の研究は、これらのシステムが時間の経過とともに推論を向上させるという信念の下で続けられている業界の一般的な慣行だ」と述べた。

 また9日の全社会議で人間のような新しい推論能力を持つという研究プロジェクトのデモを行ったという米Bloombergの報道を確認したが、詳細は明らかにしなかった。デモしたプロジェクトがストロベリーかどうかReutersは判断できていない。

 関係者によると、ストロベリーには、非常に大規模なデータセットで事前訓練した後にAIモデルを処理する特殊な方法が含まれている。OpenAIは、この技術革新によってAIモデルの推論能力が飛躍的に向上することを期待しているという。

AIの課題

 AIモデルの推論能力を向上させる取り組みは米Googleなど他社も取り組んでいる。しかし、大規模言語モデル(LLM)が、予測方法にアイデアや長期的な計画を取り入れられるかについては、研究者の間でも意見が分かれている。例えば米MetaのAIチーフAIサイエンティストのヤン・ルカン氏は「LLMには人間のような推論ができない」と指摘している。

 ストロベリーはこうした課題を克服するOpenAIの計画の重要な要素だと関係者は述べた。ここ数カ月、同社は開発者や外部の関係者に、かなり高度な推論能力を持つ技術がリリース寸前だとほのめかしているという。

 ストロベリーには、OpenAIの生成AIモデルの「ポストトレーニング」と呼ばれる特別な方法が含まれている。モデル開発のポストトレーニング段階には「ファインチューニング」のような手法を含む。このプロセスは、今日のほぼ全ての言語モデルで使用している。回答について人間がモデルにフィードバックを与えたり、良い回答例と悪い回答例を与えたりするなど、さまざまな種類がある。

 関係者によると、ストロベリーは、22年に米スタンフォード大学が開発した「Self-Taught Reasoner(STaR)」と呼ばれる手法と類似している。STaRについて、開発者の一人であるスタンフォード大学のノア・グッドマン教授はReutersに「AIモデルが独自に学習データを繰り返し作成することで、より高い知能レベルへ『ブートストラップ』(自助努力することを可能にするもので、理論的には、言語モデルが人間レベルの知能を超越するために使用される可能性がある」と語った。

 「エキサイティングであると同時に恐ろしいことだと思う。このままこの方向に進んでいけば、人間として考えなければならない重大なことが起こる」とグッドマン教授は語った。グッドマン氏はOpenAIの関係者ではなく、ストロベリーに関する情報も持っていない。

 ロイターが閲覧した文書では、OpenAIがストロベリーで目指す機能の一つとして、ロング・ホライゾン・タスク(LHT)の実行が挙げられている。LHTは、モデルが前もって計画を立て、長期間に一連の行動を実行する必要のある複雑なタスクを指すという。

Copyright © Thomson Reuters