LLM-Augmenter(Peng et al., 2023):外部知識に基づいてLLMの応答を生成するシステム。
FreshPrompt(Vu et al., 202):検索エンジンから取得した関連する最新情報をプロンプトに組み込むことで、パフォーマンスを向上させる手法。
Knowledge Retrieval(Varshney et al., 2023):テキスト生成中に可能な幻覚を検出し軽減する手法。
Decompose-and-Query framework (D&Q)(Cao et al., 2023):複雑な問いに対して、外部知識を基にした分解と問い合わせを行い、信頼性の高い回答を生成。
EVER(Kang et al., 2023):生成中に幻覚を検出し修正するリアルタイムの戦略。
RARR(Gao et al., 2023):生成したテキストの根拠を後処理で検証し、信頼性を高める方法。
High Entropy Word Spotting and Replacement(Rawte et al., 2023):高エントロピー単語(予測が難しいまたは不確実性が高い単語)を検出し置換することで幻覚を軽減。
Retrieval-Augmented Generation(RAG)(Lewis et al., 2021):事前学習済みの言語モデルとWikipediaのデータベースを組み合わせることで、生成したテキストの品質を向上させる。
Prompting GPT-3 To Be Reliable(Si et al., 2022):GPT-3の信頼性を高めるための効果的なプロンプトを提案。
ChatProtect(Mundler et al., 2023):自己矛盾を検出し軽減するプロンプトベースのフレームワーク。
Self-Reflection Methodology(Ji et al., 2023b):医療QAシステムの幻覚を軽減するための反復的な自己反省方法。
Structured Comparative Reasoning(Yan et al., 2023):テキスト間の類似点と相違点を明確に比較し、一貫性を向上させ、自然言語処理タスクにおける精度を高める手法。
Mind’s Mirror(Liu et al., 2023):大規模言語モデルが持つ自分自身の推論を評価する能力を、小型言語モデルに蒸留し、幻覚を軽減。
DRESS(Chen et al., 2023):自然言語フィードバックを使用してモデルのアライメント(人間の好みや期待に合わせる能力)を改善。
MixAlign(Zhang et al., 2023b):言語モデルを使って、ユーザーの質問と外部知識の間の矛盾やズレを自動的に検出・修正。
CoVe(Dhuliawala et al., 2023):モデルが初期の回答を生成した後、その回答をファクトチェックするための確認質問を計画し、それらの質問に回答し、最終的な検証済みの回答を生成。
CoNLI(Lei et al., 2023):背景コンテキストが提供された場合にLLMによって生成する幻覚の検出と軽減。
UPRISE(Cheng et al., 2023):特定の問題(ゼロショットタスク)に適した手掛かり(プロンプト)を自動で選び出すシステム。
SynTra(Jones et al., 2023):合成タスク(モデルが間違った情報を生成しやすい特別なタスク)で学習させ、要約タスクでの幻覚を効率的に軽減。
CAD(Shi et al., 2023):コンテキストと矛盾するモデルの事前知識を上書きし、より信頼できる現在の情報に基づいて優先知識を置き換える手法。
DoLa(Chuang et al., 2023):LLMの異なる層(前段と後段)から得られるデータ(ロジット)の違いを利用して、次に出てくるべき単語や文の確率をより正確に計算する手法。
Inference-Time Intervention(ITI)(Li et al., 2023a):推論中にモデルの考え方を少し変えて、LLaMAモデルの真実性を向上させる。
RHO(Ji et al., 2023a):言語モデルとナレッジグラフを組み合わせることで、より忠実な応答を生成する手法。
FLEEK(Bayat et al., 2023):入力テキスト内の検証可能な事実を自動的に識別し、それらを検証して修正するためのツール。
THAM Framework(Yoon et al., 2022):ビデオに基づく対話システムで発生するテキスト幻覚を軽減する手法。
Loss Weighting Method(Qiu et al., 2023b):多言語における要約生成時の幻覚を軽減するために、トレーニングサンプルの損失を信頼度スコアに基づいて重み付けする手法。
Knowledge Injection and Teacher-Student Approach(Elaraby et al., 2023):パラメータ数が少ないオープンソースLLM(例えばBLOOM 7B)での幻覚を測定し軽減するためのフレームワーク。
HAR(Koksal et al., 2023):幻覚を利用して作成した反事実的データセット(事実とは異なるデータ)を使用して、モデルが関連する情報や文脈をテキストから適切に抽出し、理解する能力を改善。
Fine-tuning Language Models for Factuality(Tian et al., 2023):人間の介入なしで自動で情報が正しいかチェックする方法と、プログラムが良い答えを好むように学習する方法を使って、LLMをより事実に基づいたものにする手法。
BEINFO (Razumovskaia et al., 2023):情報を探す対話での回答の正確さを高めるために、特別な調整方法を適応。
R-Tuning (Zhang et al., 2023a):モデルが自身の知識範囲外の質問に対して回答を拒否する能力を向上させる手法。
TWEAK (Qiu et al., 2023a):生成したテキストを仮説として扱い、それが与えられた情報をどれだけ正確にサポートしているかを評価し、品質への影響を最小限に抑えながら、信頼性を向上させる方法。
Source and Image Credits: Tonmoy, S. M., et al. “A Comprehensive Survey of Hallucination Mitigation Techniques in Large Language Models.” arXiv preprint arXiv:2401.01313(2024).