速報
OpenAI、「最近、次世代モデルのトレーニングを開始した」
OpenAIは、AI開発の安全を担う委員会設立を発表するブログで「最近、次世代モデルのトレーニングを開始した」とも語った。このモデルが「AGIへの道のりで次のレベルに導いてくれると期待している」としている。
米OpenAIは5月28日(現地時間)、安全およびセキュリティ委員会設立を発表した公式ブログで、「最近、次世代モデルのトレーニングを開始した」と語った。
このモデルが「GPT-5」になるかどうかなど、詳細には触れていない。また、一般にモデルのトレーニングには数カ月はかかる。「われわれは、この結果として得られるシステムがAGIへの道のりで、次のレベルの能力にわれわれを導いてくれると期待している」という。
AGIとは、Artificial General Intelligence(汎用人工知能)のことで、サム・アルトマンCEOはこれを「一般的に人間より賢いAIシステム」と定義している。同氏は昨年2月、AGI開発の進捗が現在のペースで続けば、「大きな変化が驚くほど早く起こる可能性」があり、「世界は現在とは大きく変わる可能性があり、そのリスクは計り知れず」、「世界に深刻な害を及ぼす可能性がある」と語った。
新設の安全およびセキュリティ委員会は、この次世代モデルを含む同社のプロジェクトと運営に関する重要な安全とセキュリティの決定について理事会全体に勧告を行う役割を担う。
OpenAIは「われわれは機能と安全性の両面で業界をリードするモデルを構築し、リリースできることを誇りに思うが、この重要な時期に活発な議論が行われることを歓迎する」としている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
OpenAI、安全およびセキュリティ委員会を設立 トップはアルトマンCEO
OpenAIは、AGI開発を含むプロジェクトとに関する安全とセキュリティをレビューするための委員会を設立したと発表した。率いるのはサム・アルトマンCEOなど3人の理事。次世代モデルのトレーニングを開始したことも発表した。
OpenAI、退社したライケ氏のAGI警鐘に応じるも具体策は明示せず
OpenAIでAIの安全性に取り組んできたライケ氏が退社に当たって投稿した警鐘に対し、ブロックマン社長がアルトマンCEOと連名の長文をポストした。アルトマン氏は別途、同社の退社合意書について高まる批判に対し「知らなかったが、知っておくべきだった」とポストした。
OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」
OpenAIで先日退社したサツケバー氏とともにAIの安全性に取り組んできたチームのトップが退社する。「安全性が輝かしい製品開発の後回し」になっていると警鐘を鳴らした。
OpenAI、AGI(人間より賢いAI)へのロードマップを公表 「世界に深刻な害を及ぼす可能性」回避のために
会話型AIサービス「ChatGPT」を手掛けるOpenAIは、AGI(Artificial General Intelligence;汎用人工知能)実現のロードマップを公開した。同社はAGIを「一般的に人間より賢いAIシステム」と定義する。AGIが世界に害を及ぼさないよう、公開協議が必要としている。
