✍️Compartir una historia desagradable que me ocurrió hace unos días al mudarme



Originalmente pensaba gestionar el cambio de domicilio del internet, pero al llamar al servicio de atención al cliente, la IA me derivó a un agente humano, y este a otro más; parecía que todo iba en orden, pero en realidad la eficiencia era muy baja. Cada llamada tenía que volver a explicar lo que quería, y después de 48H todavía no había nadie en mi puerta.

Enojado, di de baja el servicio y cancelé la línea, porque no podía saber si la persona al otro lado era un humano o un Bot, y él/ella tampoco podía percibir eficazmente tu estado emocional y tus demandas, solo seguía un guion y lanzaba un montón de frases hechas. En concreto, en cuanto a los problemas reales, solo se limitaba a dar retroalimentación, sin poder ofrecer un plazo límite.

Esto en realidad es un problema común en muchos productos de IA: solo pueden esperar pasivamente instrucciones y dar respuestas frías, no evolucionan por sí mismos, y mucho menos ofrecen personalización. Por eso, en muchas situaciones rechazamos la IA, algo similar a la nostalgia por la fabricación manual en la era de la industrialización de máquinas.

La pregunta es: ¿puede la IA realmente ofrecer respuestas más humanas basándose en la información personal del usuario, en el historial de conversaciones y en el contexto actual?

@EPHYRA_AI da la respuesta de que sí. Ya he mencionado este proyecto antes; aseguran que su objetivo es dotar a la IA de vida, permitiendo que cada IA tenga experiencias subjetivas reales en un mundo virtual.

Un ejemplo sencillo: cuando conversas con la IA, ella recordará cada palabra que digas, analizará tus objetivos y emociones, y en diferentes momentos y contextos responderá de manera distinta, haciendo que sientas que la IA tiene carne y hueso, y que puede conversar contigo cara a cara.

He revisado el perfil oficial en Twitter, y EPHYRA ha tenido avances importantes recientemente: la arquitectura cognitiva ECA (Embodied Cognitive Agent) ha pasado de ser un concepto a una fase en la que se puede experimentar y verificar, logrando avances clave en percepción, emoción y cognición, comportamiento y expresión, y en el modelo de autoconciencia.

En cuanto a la percepción: reconocimiento de voz, síntesis de voz, capacidades de visualización, y además planean incorporar percepción facial para que los personajes de IA puedan interactuar de manera multimodal.

En emoción y cognición: registran y perciben continuamente las fluctuaciones emocionales del usuario, formando preferencias afectivas y realizando juicios basados en el estado actual.

En comportamiento y expresión: las respuestas de los personajes son más naturales, coherentes y muestran características comportamentales acordes con la situación.

En el nivel del modelo de autoconciencia: se está planificando una dinámica de personalidad, predicción de intenciones, interacción multimodal y mecanismos de autoevolución, básicamente, dotar a la IA de vida.

En resumen, si has probado diversos tipos de IA, seguramente estarás muy expectante con EPHYRA; quizás esta vez sea realmente diferente.
Ver originales
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)