OpenAIでさえ危惧するAIの進化 人による制御は限界を迎えるのか?CIO Dive

OpenAIは今後10年以内にAIの管理が著しく困難になると予想し、AIの制御に関する研究に補助金を提供している。

» 2024年01月19日 08時00分 公開
[Lindsey WilkinsonCIO Dive]

この記事は会員限定です。会員登録すると全てご覧いただけます。

CIO Dive

 OpenAIは2023年12月15日、“超知能システム”を見越して人間によるAI(人工知能)制御の強化に注力していると発表した(注1)。

 AIスタートアップのリーディング企業である同社は、このテーマに関する技術研究を支援するため、1000万ドルの助成金を提供すると発表した。研究所や非営利団体、個人の研究者は、10万〜200万ドルの助成金プログラムに応募できる。

 OpenAIが特に興味を持っているのは「AIの方が賢い場合における人間の評価者の影響」や「モデルの解釈可能性の理解」「AIを用いたAI監視」「他の研究領域との間の敵対的な堅牢性」などだ。

10年後は人間の監視だけではAIシステムの管理ができなくなる?

 規制当局やプロバイダー、企業のリーダーらは、技術が発展するにつれて、AIの将来性を保証する方法に注目してきた。

 2023年10月の発表によると、米連邦政府が出した行政命令は一定の基準を超える計算速度を持つAIについてガイドラインを設けることを目的としていた(注2)。12月中旬に発表されたEU(欧州連合)のAI法では初期の義務として、市民がAIに関する苦情を申し立てたり、自分に影響を与える可能性が高い決定について説明を求めたりする権利を認めるよう定められている(注3)(注4)。

 OpenAIは今後10年以内にAIの管理が著しく困難になると予想している。

 「現在、われわれは人間のフィードバックを用いて強化学習することでAIの安全性を保証・調整している。人間の監督に依存する既存の技術だけではもはや十分ではないかもしれない」(OpenAI)

 OpenAIの「GPT」のような基礎モデルは、その複雑さと内部構造を解釈することの難しさから、しばしばブラックボックスと表現される。企業や政府の技術スタックにAIが追加されるようになるにつれ、研究者らは既存の監視リソースを強化しようとしている。

 「AIの能力が急速に進歩し続ければ、社会はより大きなリスクに対処するベストプラクティスについて繰り返し考える必要があり、その結論の迅速な導入が促進されるだろう」と、OpenAIの研究者らは2023年12月15日に発表された論文で述べている(注5)。

© Industry Dive. All rights reserved.

注目のテーマ