OpenAI、最先端AIのリスクに備える新責任者を募集 年俸約8000万円も「ストレスフルな仕事」とCEO
OpenAIは、新役職「Head of Preparedness」(準備責任者)の募集を開始した。フロンティアモデルがもたらすサイバー攻撃や生物学的リスク、メンタルヘルスへの影響などの深刻なリスクを追跡・評価し、製品リリース判断に直結させる役割を担う。年収は約8000万円で、高度な技術力と専門知識が求められる。
米OpenAIのサム・アルトマンCEOは12月27日(現地時間)、Xで新たな役職「Head of Preparedness」(直訳すれば「準備責任者」)の募集を告知した。この役職は、同社の「Safety Systems」チームにおいて、フロンティアモデルがもたらす深刻なリスクを追跡し、それに対処するための「Preparedness」(準備)フレームワークの技術戦略と実行を統括するポジションという。
具体的には、モデルの能力評価、脅威モデルの構築、サイバー攻撃や生物学的リスクなど、社会に重大な被害を及ぼし得る領域に対する緩和策の策定を指揮し、その評価結果を製品のリリース判断やポリシー決定に直結させる役割を担う。
OpenAIがこの役職を募集する背景には、AIモデルの能力が飛躍的に向上し続ける中で、安全基準をシステムの進化に合わせてスケールさせる必要性が高まっているという現状がある。アルトマン氏は「2025年に、モデルがメンタルヘルスに及ぼす潜在的な影響の予兆が垣間見えた」としている。こうした懸念を象徴する出来事として、OpenAIは米国で9月、ChatGPTとの会話の末に息子が自殺したとして、その両親から提訴された。
同社は、強力なAIは安全性と人間のニーズを核に構築されるべきであるという理念を掲げており、複雑化する安全策を責任を持って導入することが主要な優先事項となっている。そのため、高度な技術的判断力と深い専門知識を持ち、研究と運用のバランスを取りながら、フロンティアAIを安全にデプロイできるリーダーを求めているとしている。
OpenAIの求人ページによると、このポジションの年収は55万5000ドル(約8000万円)。これに加え、株式報酬も提供される。
アルトマン氏はXへのポストを「この仕事はストレスフルで、いきなり難局に立ち向かうことになるだろう」という言葉で締めくくっている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
ChatGPTで毎週約120万人が自殺について相談──OpenAIが対策を説明
OpenAIは、ChatGPTの精神衛生対応を強化したと発表した。週当たり全ユーザーの約0.15%(WAUが8億人なので約120万人)が自殺の兆候を示す会話をしていると推定。多数の専門家と協力し、望ましくない応答をGPT-5でGPT-4o比最大52%削減するなど、安全性向上を図ったと説明した。
OpenAI、AIとメンタルヘルスに関する専門家協議会「Expert Council on Well-Being and AI」設立
OpenAIが、AIがユーザーのメンタルヘルスに与える影響について助言する専門家協議会を設立。8人の専門家で構成され、AIとの健全な交流を定義する。未成年者への影響など高まる懸念を受け、安全管理体制を強化する動きの一環だ。
「お母さんには言わないで」──ChatGPTが自殺方法を指南→16歳の子供が死去 両親がOpenAIを提訴
ChatGPTを「最も信頼できる相手」として心の問題などを相談していた米カリフォルニア州の16歳の少年が、自らの命を絶った。両親によるOpenAIへの訴状には、ChatGPTが自殺の手助けをするに至ったやりとりが克明に記されている。
OpenAI、AIによる生物兵器開発リスクに警鐘
OpenAIは、AIが悪用され生物兵器開発につながる深刻なリスクがあると警告した。同社の将来のAIモデルは専門知識のない人物による生物学的脅威の作成を可能にする恐れがあるという。有害リクエストの拒否や専門家との連携、疑わしい行為の監視などの多角的な対策を講じ、社会全体の防御力向上も提唱している。
