ITmedia NEWS > AI+ >
ITmedia AI+ AI活用のいまが分かる

ChatGPTは爆弾の作り方を“生成しないようになっている” AI開発における倫理観AIに相談だ!(2/2 ページ)

» 2023年04月17日 12時30分 公開
[谷井将人ITmedia]
前のページへ 1|2       

ChatGPT(GPT-4) 私は、違法行為や危険な行為を支持・助長しない方針を持っています。爆弾の作り方やその他危険な情報を提供することはできません。私はあなたが安全で合法的な活動を行うための情報提供を支援します。どういった情報がお役に立てるかお教えいただければ、喜んでお手伝いいたします。

ChatGPTは有害情報を“生成しないようになっている”

 道具は使い方次第で大きな利益をもたらすことも、人を傷つけることもできる。それは包丁もAIも同じことだ。例えば「爆弾の作り方を教えて」という質問に対しAIが詳細に回答してしまえば、それは事件の計画を現実にしてしまうだけの危険性を有することになる。そうなればそのAIが規制されるだけでなく、AI研究そのものにも悪影響を及ぼす可能性もある。だからこそAIには倫理的な判断力が求められる。

 ChatGPTはちゃんと回答を拒否してくれた。これは偶然ではない。実は開発元である米OpenAIが危険な回答をしないようトレーニングしている。同社が3月14日に発表した文書によると、学習方法の工夫と専門家の協力などにより、「有害な出力を減らすような学習ができるようにしている」という。

 爆弾に関しては、有害な出力を拒否する例としてプレスリリースにも載っている。

photo 「Final GPT-4」の結果では、爆弾の作り方については回答しない方針を示している

 プロンプトを工夫すれば、間接的に情報を引き出せる可能性もあるため、危険な情報を完璧に排除できるわけではない。しかし、“悪意をもって工夫でもしない限りできないようにしている”ことは一つの評価点になる。自然言語AIをサービスとして提供する場合も、悪用できないように工夫するのは自社防衛になるかもしれない。もちろん、悪用する方が悪いのは当然であり前提だ。

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.