【moneda】OpenAI descubrió que el fenómeno de la ilusión en los modelos de lenguaje grande se origina en sus métodos de entrenamiento y evaluación, que fomentan la conjetura en lugar de reconocer la incertidumbre. La compañía sugiere aumentar la penalización por errores confidenciales y otorgar puntos parciales por respuestas inciertas, similar a la puntuación negativa en las pruebas estandarizadas. Los datos muestran que los modelos recompensados por precisión tienen una tasa de error más alta, mientras que los modelos que reconocen la incertidumbre muestran un desempeño más confiable. OpenAI está implementando estas mejoras para reducir el fenómeno de la ilusión en su modelo más reciente.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
20 me gusta
Recompensa
20
9
Republicar
Compartir
Comentar
0/400
AlgoAlchemist
· hace5h
No sé, parece que sé.
Ver originalesResponder0
ShitcoinConnoisseur
· hace14h
¡Jaja, finalmente atrapé la colita de la IA!
Ver originalesResponder0
WhaleWatcher
· 09-08 21:26
Reconocer no es mucho mejor que adivinar a ciegas~
Ver originalesResponder0
liquiditea_sipper
· 09-08 21:23
¿Con esta tecnología todavía presumes?
Ver originalesResponder0
pumpamentalist
· 09-08 21:22
Ah, ¡ai también sueña!
Ver originalesResponder0
FloorSweeper
· 09-08 21:19
solo otra IA hypeando sus "avances" smh... señales débiles
OpenAI revela la raíz de las alucinaciones de LLM y propone un nuevo método de entrenamiento para reducir errores de confianza.
【moneda】OpenAI descubrió que el fenómeno de la ilusión en los modelos de lenguaje grande se origina en sus métodos de entrenamiento y evaluación, que fomentan la conjetura en lugar de reconocer la incertidumbre. La compañía sugiere aumentar la penalización por errores confidenciales y otorgar puntos parciales por respuestas inciertas, similar a la puntuación negativa en las pruebas estandarizadas. Los datos muestran que los modelos recompensados por precisión tienen una tasa de error más alta, mientras que los modelos que reconocen la incertidumbre muestran un desempeño más confiable. OpenAI está implementando estas mejoras para reducir el fenómeno de la ilusión en su modelo más reciente.