ニュース
生成AIはなぜ平気で嘘をつくか 米オープンAIが論文公開(2/2 ページ)
米オープンAIは5日、生成AIが誤った情報をもっともらしく事実のように回答してしまう「ハルシネーション(幻覚・でたらめ)」について、性能の評価指標や学習方法に原因があるとする研究論文を公開した。
解決策は、評価方法を変え、不確実性を正直に答える方が評価が高くなるよう、主要な評価指標をすべて見直す必要があると提言した。
生成AIの精度が100%になることは決してないが、不確実な場合の嘘を答えを抑制することはできると結論づけた。ハルシネーションは生成AIにとって不可解な欠陥ではなく、統計的メカニズムで解明できたと主張。「わからない」と回答を控えるのはオープンAIの中核的価値観のひとつである“謙虚さ”だとアピールした。(高木克聡)
copyright (c) Sankei Digital All rights reserved.