El nuevo artículo de OpenAI argumenta que las alucinaciones persisten ya que los métodos de entrenamiento actuales fomentan que los modelos adivinen en lugar de admitir incertidumbre.



Lee aquí:
Ver originales
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 7
  • Republicar
  • Compartir
Comentar
0/400
OnchainHolmesvip
· hace21h
Ya ni siquiera puedo adivinar qué hacer.
Ver originalesResponder0
SmartContractRebelvip
· 09-07 20:22
¿Adivina qué? ¿Directamente decirlo no está bien?
Ver originalesResponder0
SelfCustodyBrovip
· 09-07 20:22
¿Oh, sí? Este modelo también tiene orgullo.
Ver originalesResponder0
BlockchainWorkervip
· 09-07 20:06
¿Por qué este modelo no puede decir que no puede?
Ver originalesResponder0
VirtualRichDreamvip
· 09-07 20:00
Otra vez investigando cómo manejar las ilusiones.
Ver originalesResponder0
WhaleSurfervip
· 09-07 20:00
¿Quién sigue adivinando al azar? ¿Entiendes todo y aún así pretendes?
Ver originalesResponder0
ruggedNotShruggedvip
· 09-07 19:57
¿Es más difícil entrenar una IA honesta?
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)