OpenAI розкриває джерела ілюзій LLM та пропонує нові методи тренування для зменшення помилок впевненості

【монета】OpenAI виявила, що явище ілюзій у великих мовних моделях походить від їхніх методів навчання та оцінювання, які заохочують здогадки, а не визнання невизначеності. Компанія пропонує збільшити покарання за конфіденційні помилки та надавати часткові бали за невизначені відповіді, подібно до негативного оцінювання у стандартизованих тестах. Дані демонструють, що моделі, які винагороджуються за точність, мають вищий рівень помилок, тоді як моделі, які визнають невизначеність, демонструють більшу надійність. OpenAI впроваджує ці поліпшення для зменшення явища ілюзій у своїх останніх моделях.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 9
  • Репост
  • Поділіться
Прокоментувати
0/400
AlgoAlchemistvip
· 1год тому
Не знаю, але здається, що знаю.
Переглянути оригіналвідповісти на0
ShitcoinConnoisseurvip
· 10год тому
Ха-ха, нарешті зловив маленький хвостик ai.
Переглянути оригіналвідповісти на0
WhaleWatchervip
· 09-08 21:26
Визнати, що це не буде значно краще, ніж сліпі здогадки~
Переглянути оригіналвідповісти на0
liquiditea_sippervip
· 09-08 21:23
З такими технологіями ще й хвалитися?
Переглянути оригіналвідповісти на0
pumpamentalistvip
· 09-08 21:22
Ага, ai теж може мріяти.
Переглянути оригіналвідповісти на0
FloorSweepervip
· 09-08 21:19
просто ще одне ІТ, яке розкручує свої "прориви" смх... слабкі сигнали
Переглянути оригіналвідповісти на0
TideRecedervip
· 09-08 21:01
Не може бути, знову тренують ШІ!
Переглянути оригіналвідповісти на0
  • Закріпити