OpenAIは今後10年以内にAIの管理が著しく困難になると予想し、AIの制御に関する研究に補助金を提供している。
この記事は会員限定です。会員登録すると全てご覧いただけます。
OpenAIは2023年12月15日、“超知能システム”を見越して人間によるAI(人工知能)制御の強化に注力していると発表した(注1)。
AIスタートアップのリーディング企業である同社は、このテーマに関する技術研究を支援するため、1000万ドルの助成金を提供すると発表した。研究所や非営利団体、個人の研究者は、10万〜200万ドルの助成金プログラムに応募できる。
OpenAIが特に興味を持っているのは「AIの方が賢い場合における人間の評価者の影響」や「モデルの解釈可能性の理解」「AIを用いたAI監視」「他の研究領域との間の敵対的な堅牢性」などだ。
規制当局やプロバイダー、企業のリーダーらは、技術が発展するにつれて、AIの将来性を保証する方法に注目してきた。
2023年10月の発表によると、米連邦政府が出した行政命令は一定の基準を超える計算速度を持つAIについてガイドラインを設けることを目的としていた(注2)。12月中旬に発表されたEU(欧州連合)のAI法では初期の義務として、市民がAIに関する苦情を申し立てたり、自分に影響を与える可能性が高い決定について説明を求めたりする権利を認めるよう定められている(注3)(注4)。
OpenAIは今後10年以内にAIの管理が著しく困難になると予想している。
「現在、われわれは人間のフィードバックを用いて強化学習することでAIの安全性を保証・調整している。人間の監督に依存する既存の技術だけではもはや十分ではないかもしれない」(OpenAI)
OpenAIの「GPT」のような基礎モデルは、その複雑さと内部構造を解釈することの難しさから、しばしばブラックボックスと表現される。企業や政府の技術スタックにAIが追加されるようになるにつれ、研究者らは既存の監視リソースを強化しようとしている。
「AIの能力が急速に進歩し続ければ、社会はより大きなリスクに対処するベストプラクティスについて繰り返し考える必要があり、その結論の迅速な導入が促進されるだろう」と、OpenAIの研究者らは2023年12月15日に発表された論文で述べている(注5)。
(注1)Superalignment Fast Grants(OpenAI)
(注2)White House AI executive order adds safety requirements for next generation tech(CIO Dive)
(注3)EU sets stage for landmark AI Act with guardrails for foundational models(CIO Dive)
(注4)Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI(European Parliament)
(注5)Practices for Governing Agentic AI Systems(OpenAI)
© Industry Dive. All rights reserved.