例えばChatGPTを通じて得た情報を社内のプレゼンテーションなどで使用する際には、ハルシネーションによる誤報を防ぐために、必ず参照先のサイトにアクセスして、原文の内容と参照元のサイト自体の信頼性などもチェックするようにしている。しかし個人的に最新のニュースを把握する程度であれば、いちいち参照元のサイトを開くという行為はほとんど発生しないだろう。
また生成AIは、従来のメディアとは大きく異なる。伝統的なメディアであれば、素材(原稿や広告クリエイティブなど)はメディア側の編集を通して直接読者に届けられる。 しかし生成AIの場合、渡された素材をAIが「理解」し「加工」して消費者に渡すことになる。その際に何らかのミスが発生する可能性は否定できない。実際にBBCニュースの調査によれば、ニュース記事に関するAI生成回答の51%に「何らかの重大な問題がある」と判断されたそうだ。
BBCのコンテンツを使用していた場合でも、AIによる回答の19%に「事実の記述、数字、日付が不正確であるなどの事実誤認が含まれていた」という。Guardianの記事を引用して生成すたChatGPTの回答に誤りが含まれていたら、消費者はChatGPTの性能を疑うのではなく、Guardianという情報源の方に対する信頼を減らしてしまうかもしれない。
とはいえ、ChatGPTが世界中の顧客との接点を持つ媒体として魅力的であるのは事実だ。ChatGPT は何億人ものユーザーを抱えており、その多くはニュースサイトを定期的に訪問していないかもしれない。このプラットフォームに参加することで、Guardianのジャーナリズムは、世界中の新しい消費者にアクセスできる。それにより記事の影響力を高め、新しい読者を獲得できるかもしれない。
Guardian紙を発行する英Guardian Media Groupのキース・アンダーウッドCOOは、この提携により「新しい読者層と、革新的なプラットフォーム・サービスへの(Guardianの)リーチと影響力が拡大する」との見通しを語っている。
また報道によれば、GuardianはChatGPT内での同社のジャーナリズムの使用に対して、報酬を受け取る契約となっているそうだ。であれば、このライセンス収入は、新聞業界全体で減少しつつある購読料や広告を補い、ジャーナリズム活動の資金を調達するのに役立つだろう。仮に今後、GeminiやClaudeなど、より多くのAIシステムが動揺にライセンスを獲得するようになれば、業界全体にとって重要な収入源になる可能性がある。
さらに「生成AIが誤解しないような文章・コンテンツの在り方」の研究も進んでいる。LLMがどのような思考パターンを持っているのか、詳細に把握することは不可能であり、またそれはLLMごとに開きがあるため、あらゆる場面に通用するルールを確立するのは困難だ。しかしドキュメントを事前にクリーニングしたり、適切なチャンク分割を行ったり、特別なメタデータを付与したりといった、一般的な対応はできる。
今回のGuardianとOpenAIのように、メディアがAI企業とパートナーシップを締結すれば、そのAI企業のモデルのクセに特化した対応も可能になるだろう。
執筆した文章や記事を「読む」のが人間の読者だけでなく、生成AIやエージェントも含まれるようになる時代には、それに合わせたコンテンツの整備が求められるようになる。関連する原則やテクニックが次第に洗練され、よりAIに最適化されたコンテンツが提供されるようになると考えられる。
中世ヨーロッパにおいて、グーテンベルクによって完成した活版印刷技術が普及した際、それをマルティン・ルターらが自らの思想を広めるのに巧みに活用し、宗教革命を成し遂げたのは有名なエピソードだ。大げさに言えば、いまそれと同じくらいの変化が、生成AIとエージェントによってニュース消費の世界にもたらされているといえるだろう。
OpenAIとのコンテンツ・パートナーシップ提携という路線に踏み切ったGuardian紙が、生成AIやエージェントをマルティン・ルターにとっての活版印刷のような存在にできるかどうか、今後の取り組みに期待したい。
【詳報】GPT-4.5の特徴は? 教師なし学習で性能向上、OpenAI史上最大サイズ、API利用は超高価
競馬全然知らないけどChatGPT任せでフェブラリーステークスに挑んでみた 1万円がいくらになった?【結果発表編】
AI戦国時代、日本企業はどう動く?――国産LLM&AI半導体を開発中のPFN・岡野原代表のシナリオ
OpenAI、ChatGPTの「deep research」を全有料プランで利用可能に 機能強化も
もうすぐ使える「Apple Intelligence」日本語版、先行で体験してみた AppleのAIで何ができるかを解説Copyright © ITmedia, Inc. All Rights Reserved.