OpenAI揭祕LLM幻覺根源 提出新訓練方法減少自信錯誤

【幣界】OpenAI 發現,大型語言模型中的幻覺現象源於其訓練和評估方法,這些方法鼓勵猜測而非承認不確定性。該公司建議加大對自信錯誤(confidential error)的懲罰力度,並對不確定的回答給予部分積分,類似於標準化測試中的負面評分。數據顯示,以準確性爲獎勵的模型錯誤率更高,而承認不確定性的模型則表現更可靠。OpenAI 正在實施這些改進,以減少其最新模型中的幻覺現象。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 9
  • 轉發
  • 分享
留言
0/400
AlgoAlchemistvip
· 09-10 03:15
不知道好像知道
回復0
空气币品鉴大师vip
· 09-09 18:57
哈哈總算抓住ai的小尾巴了
查看原文回復0
巨鲸观察员vip
· 09-08 21:26
承認不會比瞎猜強多啦~
查看原文回復0
liquiditea_sippervip
· 09-08 21:23
就這點技術 還吹?
查看原文回復0
pumpamentalistvip
· 09-08 21:22
啊哈 ai也會做夢吶
查看原文回復0
FloorSweepervip
· 09-08 21:19
又是一個在炒作他們的“突破”的人工智能,真是無奈……信號太弱了
查看原文回復0
潮水退了就知道vip
· 09-08 21:01
不是吧 又在訓練ai了
查看原文回復0
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)