米OpenAIは5月7日(現地時間)、「ChatGPT」にオプションの安全機能「Trusted Contact」を追加すると発表した。これにより、成人ユーザーはメンタルヘルスや安全に関する懸念事項について、緊急連絡先を指定できるようになる。対象となるのは、18歳以上(韓国では19歳以上)で個人用のChatGPTアカウントを持つユーザーだ。現時点では「Business」「Enterprise」「Edu」などの共有ワークスペースのプランでは利用できない。
OpenAIはこの機能追加について、ユーザーが精神的な苦痛を抱えた際、AIの枠組みの中だけで孤立させるのではなく、現実世界のケアや人間関係につなげることを目指す安全方針に基づくと説明した。社会的つながりは自殺リスクを低減する強力な保護要因であり、ユーザーが事前に信頼できる人物を指定しておくことで、最も助けが必要な時に現実のサポートへアクセスしやすくなるよう設計したという。
システムの仕組みは、AIと人間のレビュアーによる段階的な構成となっている。まず、ChatGPTの自動監視システムが、ユーザーの会話から自殺や自傷行為に関する深刻な安全上の懸念を検知すると、システムがユーザーに「連絡先に通知する可能性がある」旨を伝える。その後、専門のトレーニングを受けたレビュアーが状況を評価し、実際に深刻な懸念があると判断した場合にのみ、ユーザーが指定した連絡先へメールやSMSで安否確認を促す短い通知が送られる。なお、ユーザーのプライバシーを保護するため、会話の詳細やチャット履歴が連絡先に共有されることはない。
設定は、ChatGPTの「設定」メニューから「Trusted Contact」に進み、選んだ連絡先を登録する。登録できる連絡先は1つだけで、相手のメールアドレスの入力が必須となっており、電話番号の追加も強く推奨されている。招待状が送られた後、相手が1週間以内に承認すると機能が有効になる。OpenAIは、機能を設定する前に、相手とどのようなサポートが必要になるか事前に話し合っておくことを推奨している。
OpenAI、ChatGPTの自殺幇助訴訟で「チャット記録は抜粋」と主張 全記録の提出を表明
ChatGPTで毎週約120万人が自殺について相談──OpenAIが対策を説明
ChatGPT、繊細なメンタル質問に特化モデル「GPT-5 Instant」を自動適用
「お母さんには言わないで」──ChatGPTが自殺方法を指南→16歳の子供が死去 両親がOpenAIを提訴Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR