米OpenAIは7月5日(現地時間)、近い将来登場すると予測される人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指し、新チーム「Superalignment」を立ち上げたと発表した。
サム・アルトマンCEOは5月には、グレッグ・ブロックマン社長、チーフサイエンティストのイリヤ・サツケバー氏との連名で、AIの国際規制機関の立ち上げを提案している。
新チームを率いるのは、サツケバー氏とテクニカルスタッフのヤン・ライケ氏。2人は公式ブログで「超知能は人類がこれまでに発明した中で最も影響力のあるテクノロジーとなる」が、その力は「人類の無力化、さらには人類絶滅につながる可能性がある」と警告し、そうした超知能が10年以内に実現すると信じていると語った。
現時点では、超知能を制御し、AIの不正行為を防ぐソリューションはなく、人間がAIを確実に監視することはできないという。
その上で、この問題解決のためには、「ほぼ人間レベルの“automated alignment researcher”を構築する」必要があると主張する。このシステムを調整するには、スケーラブルなトレーニング方法を開発し、モデルを検証し、アラインメント全体をストレステストする必要があるという。
新チームは今後4年間、OpenAIが確保したコンピューティングの20%をこの取り組みに充てる計画だ。チームはこの取り組みに参加する優秀な研究者やエンジニアを募集している。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR