生成AIの自社ルールの作り方 米AP通信の例 「“何をさせないか”を明らかに」:事例で学ぶAIガバナンス(3/3 ページ)
生成AIの普及により、自らのビジネスにおいても、この新しい技術を活用しようとする企業が増えている。それらの企業はどのようなガイドラインやルールを制定するべきか。大手通信社の米AP通信の例を見てみよう。
「裏取りされていないものは使わない」という姿勢
AP通信のバレット副社長は、前述のブログ記事の中で「正確さと公平さ、そしてスピードは、AP通信の報道の指針となる価値観であり、AIを注意深く利用することで、これらの価値観に貢献し、時間をかけて私たちの働き方を改善できると考えている」と述べており、決して生成AIの利用に後ろ向きというわけではない。それはテクノロジー活用に積極的だったこれまでのAP通信の歴史からも明らかだ。
しかし彼女は、それに続けて「AIがジャーナリストの代わりになるとは一切考えていない」と明言している。AP通信の記者が担う、顧客のために事実を収集・評価し、ニュースとして配信するという役割に変化はない、というのだ。ガイダンスにおいて真っ先に、「生成AIに何をさせないか」を明らかにしているのも、そうした姿勢の表れだろう。
そして2項目目で「生成AIから出力されたものは、それがいかなるものであっても、未検証の情報元として扱う」としている。これは明らかに、生成AIの弱点の一つである「ハルシネーション(事実でないことをさも事実であるかのように出力してしまう現象)」対策だろう。生成AIの言うことをうのみにするな、というわけだ。
ただこの項目が巧みなのは、ハルシネーションの説明をしたり、単に「生成AIを信じるな」と言ったりするのではなく「そのアウトプットは未検証の情報元である」と従来の報道の枠組みを使って説明している点だ。裏の取れていない情報を使わないというのはジャーナリストの基本であり、こう表現することで、彼らの中に刷り込まれた規範を自然に引き出せるだろう。
またこの項目は「配信する情報を検討する際、編集上の判断とAP通信のソース基準を適用しなければならない」と続けられており、既にある検証基準を活用すべしとしている。これもAP通信のジャーナリストたちにとって、生成AIを利用する際の注意をイメージしやすくするものだ。
もう一つ、このガイダンスで特徴的なのが、第6項の「他の情報源からAP通信に送られてくる素材に対しても、AIが生成したコンテンツが含まれていないこと」という指摘である。
生成AIが広く普及しつつある状況では、いくら自社がその生み出すハルシネーションに注意していたとしても、外部の情報源が生成AIの間違いをうのみにして、さも真実であるかのように発信してしまうかもしれない。またそれが、意図的に行われる可能性もある(これは第7項で指摘されている点だ)。
そのため自社内で生成AIを使うか使わないか、また使う際にはどこまで許可し、どのような注意をすべきかを論じると同時に「外部の生成AIが生み出した偽情報」にも注意を呼び掛けているわけだ。
これも広く考えれば、「裏取りされていないものは使わない」という、従来ある姿勢を改めて利用するものだろう。その姿勢は生成AI時代も変わらず、むしろそれをアップデートして、新しい技術に対応させているといえる。AP通信のガイダンスは、決して全く新しい概念を導入したり、既存の概念を破壊したりするようなものではない。
このアプローチは、メディア以外の企業にも大いに参考になるはずだ。「偽情報だろうが何だろうが使えるものは全部使え」などという姿勢を推奨している企業はないだろう。
どのようなビジネスを行っているかによって、その現れ方に違いはあれど、必ず正しい情報に依拠して業務を進めるように規定されているはずだ。そこにうまく生成AIを位置付けてやることで、従業員にとってより理解しやすく、守りやすいガイドラインになると考えられる。
このように、他社や他業界で導入されたガイドラインだからといって、自社の参考にならないということはない。むしろ「正確性に注意せよ」のように抽象度が高い規定よりも、ある程度具体的な指示の方が、その意図を考えることで自社への応用がしやすくなる可能性が高い。今後もさまざまな業界から発表されるガイドライン類に注目することで、自分たちのルールを検討しやすくなるはずだ。
関連記事
OpenAIとAP通信がライセンス契約 LLMトレーニングに過去記事取り込み
OpenAIとAP通信は、APのニュースコンテンツアーカイブをOpenAIにライセンス供与する契約を結んだと発表した。OpenAIはLLMトレーニングにAPの過去記事を使えるようになる。APは「OpenAIの技術とノウハウを活用する」が、記事執筆には生成AIを使わないとしている。ChatGPTの利用を社内で許可すべき? 懸念される情報漏えいリスクとは
米OpenAIが発表した高性能対話AI「ChatGPT」。大きな盛り上がりを見せているが、利用禁止に踏み切る企業も少なくない。ChatGPTの利用することで、考えられる情報漏えいリスクとは何か。ChatGPTは「ハリー・ポッター」を読破済み? 生成AIで懸念される著作権侵害のリスクとは
日本企業でも、チャットAI「ChatGPT」の活用や導入検討が始まりつつある。一方、生成AIの出力結果によっては、第三者の著作権を侵害してしまうリスクも付きまわる。中でも懸念されるのは「学習した著作物に近い形で、コンテンツを生成する」というものだ。ChatGPTに“追悼文”を書かせるのは失礼なのか? 米国で物議に 求められる第三者への配慮
米国のバンダービルト大学がAIを使って作成した追悼文を公開したところ、炎上し謝罪するという出来事が起きた。「AIが書いた文章は被害者の心情を無視している」などさまざまな意見が飛び交っている。AI時代のメッセージの発信方法を考察する。生成AIによる「“新”証言」で物議 日赤、関東大震災100年企画の一部展示を取りやめ
日本赤十字社は24日、「関東大震災100年プロジェクト」の一部として計画していた、生成AIを使った企画展示とWebサイトへの掲載を取りやめると発表した。「本来の意図が伝わらず一部で誤解を招いた」としている。
Copyright © ITmedia, Inc. All Rights Reserved.