米OpenAI、汎用人工知能“AGI”開発中か コードネームは「ストロベリー」
米OpenAIがコードネーム「Strawberry」(ストロベリー)というAIの推論技術の開発プロジェクトに取り組んでいる。ストロベリーは2023年に報じられた、汎用人工知能(AGI)の開発プロジェクト「Q*」(Qスター)のことだ。
米OpenAIがコードネーム「Strawberry」(ストロベリー)というAIの推論技術の開発プロジェクトに取り組んでいる。ストロベリーは2023年に報じられた、汎用人工知能(AGI)の開発プロジェクト「Q*」(Qスター)のこと。Q*は、科学や数学の複雑な質問に回答できたという。
関係筋は、プロジェクトは進行中だと述べた。ストロベリーがどのように機能するかは、OpenAI内部でも厳しく情報管理されているという。英Reutersが5月に閲覧したOpenAIの内部文書(写し、日付は未確認)によると、プロジェクトでは、ストロベリーで質問への回答を生成するだけでなく、インターネットを自律的かつ確実にナビゲートし、OpenAIが言うところの「ディープリサーチ」を実行できるようにすることを目指す。
Reutersがインタビューした十数人のAI研究者は「これはこれまでAIモデルが実現できなかったことだ」と述べた。
OpenAIの広報は、ストロベリーに関する質問への回答は控える一方で「当社のAIモデルが私たちと同じように世界を見て理解することを望んでいる。新たなAI機能の研究は、これらのシステムが時間の経過とともに推論を向上させるという信念の下で続けられている業界の一般的な慣行だ」と述べた。
また9日の全社会議で人間のような新しい推論能力を持つという研究プロジェクトのデモを行ったという米Bloombergの報道を確認したが、詳細は明らかにしなかった。デモしたプロジェクトがストロベリーかどうかReutersは判断できていない。
関係者によると、ストロベリーには、非常に大規模なデータセットで事前訓練した後にAIモデルを処理する特殊な方法が含まれている。OpenAIは、この技術革新によってAIモデルの推論能力が飛躍的に向上することを期待しているという。
AIの課題
AIモデルの推論能力を向上させる取り組みは米Googleなど他社も取り組んでいる。しかし、大規模言語モデル(LLM)が、予測方法にアイデアや長期的な計画を取り入れられるかについては、研究者の間でも意見が分かれている。例えば米MetaのAIチーフAIサイエンティストのヤン・ルカン氏は「LLMには人間のような推論ができない」と指摘している。
ストロベリーはこうした課題を克服するOpenAIの計画の重要な要素だと関係者は述べた。ここ数カ月、同社は開発者や外部の関係者に、かなり高度な推論能力を持つ技術がリリース寸前だとほのめかしているという。
ストロベリーには、OpenAIの生成AIモデルの「ポストトレーニング」と呼ばれる特別な方法が含まれている。モデル開発のポストトレーニング段階には「ファインチューニング」のような手法を含む。このプロセスは、今日のほぼ全ての言語モデルで使用している。回答について人間がモデルにフィードバックを与えたり、良い回答例と悪い回答例を与えたりするなど、さまざまな種類がある。
関係者によると、ストロベリーは、22年に米スタンフォード大学が開発した「Self-Taught Reasoner(STaR)」と呼ばれる手法と類似している。STaRについて、開発者の一人であるスタンフォード大学のノア・グッドマン教授はReutersに「AIモデルが独自に学習データを繰り返し作成することで、より高い知能レベルへ『ブートストラップ』(自助努力することを可能にするもので、理論的には、言語モデルが人間レベルの知能を超越するために使用される可能性がある」と語った。
「エキサイティングであると同時に恐ろしいことだと思う。このままこの方向に進んでいけば、人間として考えなければならない重大なことが起こる」とグッドマン教授は語った。グッドマン氏はOpenAIの関係者ではなく、ストロベリーに関する情報も持っていない。
ロイターが閲覧した文書では、OpenAIがストロベリーで目指す機能の一つとして、ロング・ホライゾン・タスク(LHT)の実行が挙げられている。LHTは、モデルが前もって計画を立て、長期間に一連の行動を実行する必要のある複雑なタスクを指すという。

Copyright © Thomson Reuters
関連記事
人間レベルの知能を持つ「AGI」は3年後? 元OpenAI研究員の警告が話題 AIの“人間超え”で何が起こるか
元OpenAIの元研究員が「『AGI』(汎用人工知能、人間と同程度の知能を持つAIのこと)は27年に実現する」と警鐘を鳴らす論文を発表し、話題になったことをご存じだろうか? AIが人を超える知能を持ったとき、どのようなリスクが考えられるか。
“人間には簡単なパズル”、AIが解ければ賞金 総額約1億7700万円 「AGI」を目指すコンテスト開催中
人間には簡単だがAIには難しいテスト「ARC」を用いたコンテスト「ARC Prize 2024」が開催中だ。このコンテストでは総額110万ドル(約1億7780万円、1ドル=161円換算)以上の賞金を用意している。
生成AIでコーディング効率化!→待っていたのは“失敗の日々” とあるITエンジニアとAIの試行錯誤の記録
「生成AIに振り回された3カ月間の成功と失敗」──リンクアンドモチベーションは、そう題した講演を行った。同社のソフトウェアエンジニアが開発生産性を上げるため、生成AIでコードを編集するために試行錯誤した3カ月間の体験談を話した。
米トイザらス、動画生成AI「Sora」製のWebコマーシャル公開 ユーザーからは「AIが雇用を奪っている」など厳しい意見
玩具量販店の米ToysRUsは、動画生成AI「Sora」を使ったWebコマーシャルを公開した。創業者の若かりし頃を実写映像のように描いており、動画尺は1分6秒。ユーザーからは「AIが雇用を奪っている」などの意見が相次いでいる。
“GPT-4超え性能”の日本語特化型LLM AIスタートアップ・ELYZAが開発 国外プレイヤーとの競争も「諦めない」
東大発のAIスタートアップ企業であるELYZAは、GPT-4を超える性能を持つ日本語特化型の大規模言語モデル(LLM)「Llama-3-ELYZA-JP-70B」を開発したと発表した。
