米オープンAIは5日、生成人工知能(AI)が誤った情報をもっともらしく事実のように回答してしまう「ハルシネーション(幻覚・でたらめ)」について、性能の評価指標や学習方法に原因があるとする研究論文を公開した。もっともらしい嘘よりも不確実性を適切に表現した“謙虚な”回答を奨励するなど評価基準を見直すことで、課題の解決につながるとした。
ハルシネーションは、事実に基づかない情報をAIが生成してしまう現象。不確実な部分を推論で補い、自然な文章や画像を作ることのできる生成AIにとって避けられない課題とされる。一方でAIの学習データが大規模化し、性能が向上すれば、自然と解決される問題でもあると考えられてきた。
論文では、不確実性を正直に答えるのではなく、推測を促すような方法で性能を測定していることが一因となっていると指摘した。学校の試験問題で、正解を期待して当てずっぽうで空欄を埋めるのと同じように、生成AIも「わからない」と答えて確実に「0点」とされるよりも、嘘が含まれていても推論で何らかの答えを出すようになっているという。ハルシネーションを生む原因は事前学習にもあり、学習頻度の低い問題については予測が困難になり、より推論に頼りやすくなる。
copyright (c) Sankei Digital All rights reserved.
Special
PR注目記事ランキング