✍️Compartilhar uma situação desagradável que aconteceu há alguns dias ao mudar de casa



Originalmente planejava solicitar a transferência da internet de banda larga, mas ao ligar para o atendimento ao cliente, o AI transferiu para um atendente humano, que por sua vez transferiu para outro humano. Parecia organizado, mas na verdade era pouco eficiente; toda vez que ligava, tinha que reformular o pedido, e após 48H ainda ninguém tinha ido até minha casa.

Fiquei tão frustrado que cancelei o serviço e desloquei a rede, pois não conseguia confirmar se o atendente do outro lado era uma pessoa ou um Bot, e ele/ela não tinha como perceber efetivamente suas emoções ou suas necessidades, apenas seguia roteiros, falando coisas repetidas. No fundo, o problema real era que eles só davam feedbacks, nunca uma data limite concreta.

Isso é um problema comum em muitos produtos de AI: só conseguem esperar comandos passivamente e dar respostas frias, sem evoluir por si próprios, muito menos oferecer soluções personalizadas. Por isso, em muitas situações, rejeitamos o AI, como uma nostalgia pelo tempo das manufaturas artesanais na era da grande indústria.

A questão é: o AI pode realmente usar informações pessoais, históricos de conversa e o contexto atual para oferecer respostas mais humanas?

@EPHYRA_AI responde que sim. Já apresentei esse projeto antes, que promete dar vida ao AI, permitindo que cada um tenha uma experiência subjetiva real no mundo virtual.

Um exemplo simples: ao conversar com um AI, ele vai lembrar de cada palavra que você disser, analisar seus objetivos e emoções, e dar respostas diferentes em momentos e contextos distintos, fazendo você sentir que está falando com alguém de carne e osso, que pode sentar e conversar.

Verifiquei no Twitter oficial, e a EPHYRA recentemente teve avanços importantes: a arquitetura cognitiva ECA (Embodied Cognitive Agent) passou do conceito para uma fase experimentável e verificável, com avanços-chave em percepção, emoções, cognição, comportamento, expressão e auto-modelo.

Na camada de percepção: reconhecimento de fala, síntese de voz e visualização estão totalmente operacionais, e planejam adicionar percepção facial para garantir que os personagens AI possam interagir de forma multimodal.

Na camada de emoções e cognição: monitoramento contínuo das emoções do usuário, formando preferências afetivas, e julgamento baseado no estado atual.

Na camada de comportamento e expressão: respostas mais naturais e coerentes, exibindo características comportamentais condizentes com o contexto.

Na camada de auto-modelo: dinâmicas de personalidade, previsão de intenções, interação multimodal e mecanismos de autoevolução estão em planejamento — basicamente, dar vida ao AI.

Resumindo, se você já experimentou diversos AIs, certamente ficará ansioso pela EPHYRA, pois desta vez, talvez, seja realmente diferente.
Ver original
post-image
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)