El nuevo artículo de OpenAI argumenta que las alucinaciones persisten ya que los métodos de entrenamiento actuales fomentan que los modelos adivinen en lugar de admitir incertidumbre.
Lee aquí:
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
5 me gusta
Recompensa
5
7
Republicar
Compartir
Comentar
0/400
OnchainHolmes
· hace21h
Ya ni siquiera puedo adivinar qué hacer.
Ver originalesResponder0
SmartContractRebel
· 09-07 20:22
¿Adivina qué? ¿Directamente decirlo no está bien?
Ver originalesResponder0
SelfCustodyBro
· 09-07 20:22
¿Oh, sí? Este modelo también tiene orgullo.
Ver originalesResponder0
BlockchainWorker
· 09-07 20:06
¿Por qué este modelo no puede decir que no puede?
Ver originalesResponder0
VirtualRichDream
· 09-07 20:00
Otra vez investigando cómo manejar las ilusiones.
Ver originalesResponder0
WhaleSurfer
· 09-07 20:00
¿Quién sigue adivinando al azar? ¿Entiendes todo y aún así pretendes?
El nuevo artículo de OpenAI argumenta que las alucinaciones persisten ya que los métodos de entrenamiento actuales fomentan que los modelos adivinen en lugar de admitir incertidumbre.
Lee aquí: