米OpenAIは9月2日(現地時間)、ChatGPTの安全対策を強化し、特に青少年や精神的苦痛に直面している人々を保護するための新たな取り組みを発表した。2025年末までに、これらの保護機能の展開を目指す。
この発表は、ChatGPTが自殺を助長した、あるいは適切に介入できなかったとする事例や、それに関連する訴訟が相次ぐ中で行われた。現行のChatGPTは、欧米では自殺を示唆するユーザーを危機ホットラインに誘導するが、プライバシーの懸念から、自己危害のケースを法執行機関に報告することはない。
主な取り組みとして、危機的状況にある人々への介入拡大、緊急サービスや専門家への連絡の容易化、信頼できる連絡先への接続の実現、若年層向けの保護強化の4つの分野を挙げた。特に、苦痛の兆候を検出するようなデリケートな会話を、敵対的なプロンプトに強いとされる「GPT-5-thinking」などの推論モデルにルーティングするようになるという。この取り組みは、精神衛生、若者の発達、人間とコンピュータの相互作用の専門家で構成される諮問グループや、60カ国以上で活動する250人以上の医師からなるグローバル医師ネットワークとの連携を通じて進められている。
また、10月にはペアレンタルコントロール機能を導入する予定だ。これにより、保護者は未成年のアカウントと自身のアカウントを簡単なメール招待で連携できるようになる。連携後は、年齢に応じたモデルの行動ルールを設定してChatGPTの応答を管理したり、記憶機能やチャット履歴などの機能を無効にしたりできる。さらに、システムが未成年ユーザーが急性期の苦痛にあることを検出すると保護者に通知が届くようになる。
これらの取り組みは、OpenAIにとって「始まりに過ぎない」という。同社の究極の目標は、ChatGPTを利用する人々、特に最も脆弱な立場にある人々を保護することだという。また、「専門家の指導を受けながら、アプローチの学習と強化を継続し、ChatGPTを可能な限り役立つものにすることを目指す」と述べた。
「#keep4o」の気持ち、ちょっと分かる 23歳記者と“ChatGPTにお悩み相談する人たち”のリアル
GPT-5の“性格”変更へ 「温かみがありつつ、GPT-4oほど煩わしくないものに」
GPT-5は「より温かみのあるもの」に調整へ アルトマン氏「AIモデルへの愛着」に持論
ChatGPT利用と孤独感の関係性──OpenAIとMITが共同研究結果を発表Copyright © ITmedia, Inc. All Rights Reserved.