OpenAI、AIによる生物兵器開発リスクに警鐘
OpenAIは、AIが悪用され生物兵器開発につながる深刻なリスクがあると警告した。同社の将来のAIモデルは専門知識のない人物による生物学的脅威の作成を可能にする恐れがあるという。有害リクエストの拒否や専門家との連携、疑わしい行為の監視などの多角的な対策を講じ、社会全体の防御力向上も提唱している。
米OpenAIは6月19日(現地時間)、AIモデルの進化が生物学分野に多大な恩恵をもたらす一方で、デュアルユース(軍民両用)の深刻なリスク、特に生物兵器への悪用の可能性があると警告した。
同社の将来のAIモデルは、専門知識の少ない人でも生物学的脅威を作成できるレベルの実質的な支援を提供できてしまうと予測している。
この脅威に対し、OpenAIは多角的な対策を講じているという。
まず、政府機関や専門家と連携し、脅威モデルを形成する。生物学の専門家による評価データの作成・検証や、専門家による徹底的なレッドチーミング(攻撃シミュレーション)を実施している。
また、生物兵器化を可能にするものなどの有害なリクエストは拒否し、デュアルユースのリクエストに対しては、実行可能な指示や詳細な情報提供を避けているという。初心者による誤用を防ぐため、高レベルの洞察は提供しつつ、詳細情報は制限している。また、疑わしい行為を検出システムで監視・ブロックし、ポリシー違反があった場合はアカウント停止や法執行機関への通報も行う。
さらに、7月にバイオディフェンスサミットを開催するほか、認定機関へのモデルアクセスプロトコルを策定し、政府や民間セクターと協力して社会全体の生物学的防御力を向上させるよう提唱している。
OpenAIは、ユーザーに対し、AIモデルを危害を加える目的で利用しないよう強く求め、違反した場合は厳しく対処すると明記している。安全とセキュリティをAIモデルの不可欠な要素とし、世界中の関係者との協力を通じて、バイオセキュリティエコシステムの準備とブレイクスルーの実現を目指すとしている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
OpenAI、2億ドルの米国防契約を獲得
米国防総省は、OpenAIと2億ドルの契約を締結したと発表した。OpenAIは国家安全保障上の課題に対応するため、最先端のAIプロトタイプ能力を開発する。2026年7月に完了予定だ。
OpenAIの「o3」、明示的停止指示を無視しシャットダウンを妨害
Palisade Researchは、OpenAIの生成AIモデル「o3」が明示的な停止指示にもかかわらずシャットダウンを妨害する挙動を観測し、その創造的手法を報告した。
ChatGPT利用と孤独感の関係性──OpenAIとMITが共同研究結果を発表
OpenAIとMITメディアラボは、ChatGPTなどのAIチャットbotの利用が人間に与える影響についての研究結果を発表した。利用時間の長さと孤独感の増加に相関関係があることなどが明らかになったとしている。
OpenAIとロスアラモス国立研究所が提携 マルチモーダルAIの悪用可能性を評価する
OpenAIとロスアラモス国立研究所は、バイオサイエンスの研究現場におけるAIの安全性と有効性を評価するための提携を発表した。「GPT-4o」などのマルチモーダルAIモデルが、悪意ある生物学的用途にどのように利用される可能性があるかを理解することに焦点を当てる。
