OpenAI、「AI の安全性に対する当社のアプローチ」を説明 「年齢確認オプション検討中」
OpenAIが「AIの安全性に対する当社のアプローチ」を説明した。「GPT-4より強力なAIの開発を直ちに停止せよ」という署名運動などを受けたものとみられる。「悪用する方法をすべて予測することはできない」が新しいシステムのリリースは慎重に行っていると主張する。
米OpenAIは4月5日(現地時間)、「AIの安全性に対する当社のアプローチ」と題するブログを公開した。「GPT-4より強力なAIの開発を直ちに停止せよ」という署名運動など、倫理的な反発や規制を求める動きを受けたものとみられる。
GPT-4の公開に際しては、トレーニング完了後、組織全体で半年以上かけて安全で整合性のとれたものにするための作業を行い、外部の専門家にもフィードバックを求めたとしている。
具体的な「アプローチ」としては、子供を守るためにAIツールの利用者が18歳以上(または保護者の承認を得た13歳以上)であるかどうかを検証するオプションを検討していると説明した。
それ以外は、具体的な取り組みの説明はほとんどない。「悪用する方法をすべて予測することはできない」と認めつつ、その対策として新しいシステムのリリースは慎重かつ段階的に、十分な保護手段を講じて行っているとしている。
また、最高レベルのモデルはAPIを通じて提供することにより、不正使用を監視して対策を講じることができるようにしているという。
プライバシーに関しては、「トレーニングデータにはネットで入手可能な個人情報が含まれている」が、「可能な場合は」「個人からの個人情報のシステムからの削除要求に対応する」と語った(今のところデータ削除要求フォームなどはない)。
同社は最近、「ChatGPT」と「DALL・E」でユーザーデータをAIトレーニングからオプトアウトするよう申請できるようにした。
「安全対策を強化し続ける」「利害関係者間のコラボレーションとオープンな対話を促進してきた」としているが、トレニングデータやコード、セーフティフィルタの実装方法などについて求められている透明性については触れていない。
関連記事
- AI開発停止要求署名は無意味、透明性と説明責任の改善を──Hugging Faceのルッチョーニ博士
イーロン・マスク氏などが署名した「GPT-4より強力なシステム開発を停止せよ」という公開書簡について、AI研究者が「非現実的で不必要」と評した。それよりもガイドラインを作成し、透明性と説明責任を改善すべきだと主張する。 - 「ChatGPTに入力した内容、学習されたくない」オプトアウト申請可能 DALL-Eも
「ChatGPT」と「DALL-E」のWeb版で、ユーザーが入力した内容をAIに学習させない「オプトアウト」を受け付けている。 - ChatGPTにイタリアデータ保護当局が禁止命令 プライバシーの懸念で
イタリアの個人データ保護当局がOpenAIに対し、ChatGPTの提供を一時的に禁止した。ユーザーの個人データを違法に収集しているためとしている。OpenAIは命令に従い、イタリアでの提供を停止した。 - 「GPT-4より強力なAIの開発を直ちに停止せよ」──公開書簡にマスク氏やウォズニアック氏が署名
非営利のAI研究組織FLIは巨大AI実験の一時停止を求める書簡を公開した。「GPT-4より強力なAIの開発を少なくとも6カ月停止せよ」としている。マスク氏やウォズニアック氏、「サピエンス全史」のハラリ氏などが署名済みだ。 - ChatGPTの利用を社内で許可すべき? 懸念される情報漏えいリスクとは
米OpenAIが発表した高性能対話AI「ChatGPT」。大きな盛り上がりを見せているが、利用禁止に踏み切る企業も少なくない。ChatGPTの利用することで、考えられる情報漏えいリスクとは何か。 - OpenAI、AGI(人間より賢いAI)へのロードマップを公表 「世界に深刻な害を及ぼす可能性」回避のために
会話型AIサービス「ChatGPT」を手掛けるOpenAIは、AGI(Artificial General Intelligence;汎用人工知能)実現のロードマップを公開した。同社はAGIを「一般的に人間より賢いAIシステム」と定義する。AGIが世界に害を及ぼさないよう、公開協議が必要としている。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.