総務省の「インターネット上の偽・誤情報対策技術の開発・実証事業」の採択のもと、AIを活用してインターネット上の情報の真偽を多面的に分析し、ファクトチェックを支援する偽・誤情報分析技術の開発を開始した。実証事業の期間は2025年3月までだ(図3)。
新たに開発する技術は、複数の種類のデータ(テキストや画像、動画、音声)で構成されるコンテンツが、偽・誤情報かどうかをAIで分析し、その内容の真偽を分析する。具体的なプロセスは次の通りだ。
上記を偽情報分析に特化したLLMで評価することで真偽を総合的に判定する。
また、ファクトチェック機関の専門家が作成する報告書や記事に近い形式でレポートを作成し、信頼性の低い根拠の削除や新たな根拠として情報を加えるなど分析者の指示に応じた調整を可能とすることで、ファクトチェック業務の容易化・効率化を目指す構えだ。
今後、開発した技術は日本ファクトチェックセンターなどのファクトチェック機関や放送局をはじめとするマスメディアにおいて実用性を検証し精度を向上させ、実用化を目指す構えだ。さらに、防災をはじめさまざまな業界での応用も検討していく考えだ。
生成AIおよびLLMの出力に含まれるハルシネーションを検知し、確認作業を効率化する技術で、2024年10月末から順次提供を開始する予定だ(図4)。
NECのテキスト分析技術およびLLMに関するノウハウを元に開発されたハルシネーション対策機能は、LLMが文章生成の元にした文章と生成した文章を比較して、食い違いがあった場合は矛盾箇所を提示する。単純な単語の比較だけでなく、文章の意味を比較して判断することが可能で、情報の抜け漏れや重複、元の文章と意味が変わった箇所などを提示する。同機能をLLMによる文章の要約に使うことで、要約前後の文章を比較してハルシネーションの有無の判定が容易になる。NECは、人的な確認作業の負担が軽減され、要約精度のさらなる向上が期待できるとしている。
また、RAG(検索拡張生成)に代表される情報検索用途においても、LLMに質問して得られた文章に対して、その根拠となる元の文章を提示できる。LLMが生成した文章の正確性を効率的に確認するのも可能だとしている。
これらの説明を聞いていた筆者に一つの疑問が浮かんだ。生成AIによる判断や考え方が偏っているかどうかを生成AIが判定することはできるのか。生成AIが、人間の判断や意思決定に大きな影響を与えるようになるであろう将来に備えるために質問した。セキュリティリスクではないかもしれないが、表1における「バイアスの再生成」と通底しているところもある重大な懸念事項だ。筆者のこの疑問に、藤田氏は次のように答えた。
「生成AIの判断を生成AIでチェックするのは、なかなか難しいところがある。なぜならば、何をもってその判断が正しいのか、そう簡単に判定できないからだ。そうしたリスクについては、研究開発だけでなく法務や知的財産権などの部門とも連携してどのような対策を講じられるか、検討する必要があるだろう」
正直、難しいことを尋ねていると思ったが、この分野の専門家である藤田氏がどう答えるか、聞いてみたかった。
生成AIがもたらすリスクに生成AIで対応することは、ますます重要になるだろう。対応できない領域が広がれば、すなわちAIガバナンスが難しくなる。この話は企業、さらには社会のDX(デジタルトランスフォーメーション)を健全な方向に導く非常に重要なポイントになるのではないか。
フリージャーナリストとして「ビジネス」「マネジメント」「IT/デジタル」の3分野をテーマに、複数のメディアで多様な見方を提供する記事を執筆している。電波新聞社、日刊工業新聞社などで記者およびITビジネス系月刊誌編集長を歴任後、フリーに。主な著書に『サン・マイクロシステムズの戦略』(日刊工業新聞社、共著)、『新企業集団・NECグループ』(日本実業出版社)、『NTTドコモ リアルタイム・マネジメントへの挑戦』(日刊工業新聞社、共著)など。1957年8月生まれ、大阪府出身。
富士通とNECの最新受注状況から探る「今後の国内IT需要の行方とリスク」
NECの戦略から考察 DXを成功に導く「シナリオ作り」の勘所とは?
イオングループの「データの生かし方」「生成AIの使い方」とは? 外部人材登用の理由を考察
近い将来、サイバー攻撃の17%に生成AIが関与する Gartnerが予測を発表Copyright © ITmedia, Inc. All Rights Reserved.