OpenAI раскрывает истоки иллюзий LLM и предлагает новый метод обучения для уменьшения ошибок самоуверенности

【токен】OpenAI обнаружил, что феномен галлюцинаций в крупных языковых моделях происходит из-за методов их обучения и оценки, которые поощряют догадки, а не признание неопределенности. Компания предлагает увеличить наказание за уверенные ошибки и давать частичные баллы за неопределенные ответы, аналогично негативному оцениванию в стандартизированных тестах. Данные показывают, что модели, нацеленные на точность в качестве награды, имеют более высокий уровень ошибок, в то время как модели, признающие неопределенность, показывают более надежные результаты. OpenAI внедряет эти улучшения, чтобы уменьшить феномен галлюцинаций в своих последних моделях.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 5
  • Репост
  • Поделиться
комментарий
0/400
WhaleWatchervip
· 11ч назад
Признание не будет намного лучше, чем слепая догадка~
Посмотреть ОригиналОтветить0
liquiditea_sippervip
· 11ч назад
С такой технологией еще хвастаться?
Посмотреть ОригиналОтветить0
pumpamentalistvip
· 11ч назад
Ахах, ai тоже умеет мечтать.
Посмотреть ОригиналОтветить0
FloorSweepervip
· 11ч назад
просто еще один ИИ, раздувающий свои "прорывы", смех... слабые сигналы
Посмотреть ОригиналОтветить0
TideRecedervip
· 12ч назад
Неужели снова тренируют ИИ?
Посмотреть ОригиналОтветить0
  • Закрепить