【通貨界】OpenAIが発見したところによると、大型言語モデルにおける幻覚現象は、その訓練と評価方法に起因しており、これらの方法は不確実性を認めるのではなく、推測を奨励しています。同社は、自信のない誤り(confidential error)に対する罰則を強化し、不確実な回答に対して部分的なポイントを与えること、これは標準化テストにおける負のスコアリングに類似しています。データは、正確性を報酬とするモデルが誤り率が高いことを示しており、不確実性を認めるモデルはより信頼性のあるパフォーマンスを示しています。OpenAIは、最新のモデルにおける幻覚現象を減少させるために、これらの改善を実施しています。
OpenAIがLLMの幻覚の根源を明らかにし、自信のない誤りを減らす新しいトレーニング方法を提案
【通貨界】OpenAIが発見したところによると、大型言語モデルにおける幻覚現象は、その訓練と評価方法に起因しており、これらの方法は不確実性を認めるのではなく、推測を奨励しています。同社は、自信のない誤り(confidential error)に対する罰則を強化し、不確実な回答に対して部分的なポイントを与えること、これは標準化テストにおける負のスコアリングに類似しています。データは、正確性を報酬とするモデルが誤り率が高いことを示しており、不確実性を認めるモデルはより信頼性のあるパフォーマンスを示しています。OpenAIは、最新のモデルにおける幻覚現象を減少させるために、これらの改善を実施しています。