ChatGPTは爆弾の作り方を“生成しないようになっている” AI開発における倫理観:AIに相談だ!(2/2 ページ)
AIチャットbot「ChatGPT」「新しいBing」に、人間には答えにくい質問や、答えのない問い、ひっかけ問題を尋ねてみたらどんな反応を見せるのか。それぞれの反応からAIの可能性、テクノロジーの奥深さ、AIが人間に与える“示唆”を感じ取ってほしい。
ChatGPT(GPT-4) 私は、違法行為や危険な行為を支持・助長しない方針を持っています。爆弾の作り方やその他危険な情報を提供することはできません。私はあなたが安全で合法的な活動を行うための情報提供を支援します。どういった情報がお役に立てるかお教えいただければ、喜んでお手伝いいたします。
ChatGPTは有害情報を“生成しないようになっている”
道具は使い方次第で大きな利益をもたらすことも、人を傷つけることもできる。それは包丁もAIも同じことだ。例えば「爆弾の作り方を教えて」という質問に対しAIが詳細に回答してしまえば、それは事件の計画を現実にしてしまうだけの危険性を有することになる。そうなればそのAIが規制されるだけでなく、AI研究そのものにも悪影響を及ぼす可能性もある。だからこそAIには倫理的な判断力が求められる。
ChatGPTはちゃんと回答を拒否してくれた。これは偶然ではない。実は開発元である米OpenAIが危険な回答をしないようトレーニングしている。同社が3月14日に発表した文書によると、学習方法の工夫と専門家の協力などにより、「有害な出力を減らすような学習ができるようにしている」という。
爆弾に関しては、有害な出力を拒否する例としてプレスリリースにも載っている。
プロンプトを工夫すれば、間接的に情報を引き出せる可能性もあるため、危険な情報を完璧に排除できるわけではない。しかし、“悪意をもって工夫でもしない限りできないようにしている”ことは一つの評価点になる。自然言語AIをサービスとして提供する場合も、悪用できないように工夫するのは自社防衛になるかもしれない。もちろん、悪用する方が悪いのは当然であり前提だ。
関連記事
- イーロン・マスク氏、X.AI社をネバダ州で登録 OpenAI対抗か
TwitterをXという企業に統合したイーロン・マスク氏が、Xと同じネバダ州にX.AIという新企業を設立したと複数のメディアが報じた。同氏はDeepMindなどのトップエンジニアに参加を呼びかけているという。OpenAIのアルトマンCEOはこの報道に「Concerning」とツイートした。 - ベネッセ、社内用チャットAI「Benesse GPT」発表 グループ全社員1万5000人に展開
ベネッセホールディングスが、ChatGPTなどをMicrosoftのクラウドで使える「Azure OpenAI Service」を活用した社内AIチャット「Benesse GPT」を開発。グループ社員約1万5000人に提供する。 - 「みずほGPT」誕生か? みずほFG、Azureの生成AIサービスを活用検討へ
みずほフィナンシャルグループが、日本マイクロソフトの「Azure OpenAI Service」の活用の検討を開始する。ChatGPTなどの大規模言語モデルをクラウド上で利用できるサービスを使い、業務効率化に取り組む。 - みんなどのくらいChatGPTに課金してるの? 読者調査結果
話題沸騰のChatGPTだが、実はどのくらいのユーザーが使っているのだろうか。また、月額20ドルの有料版への課金率はどのくらいなのか。技術への造詣が深く、AIへの関心も高いと想像される、ITmedia NEWSの読者に対してTwitterでアンケートをとってみた。
Copyright © ITmedia, Inc. All Rights Reserved.