✍️Compartilhar uma situação desagradável que aconteceu há alguns dias ao mudar de casa
Originalmente planejava solicitar a transferência da internet de banda larga, mas ao ligar para o atendimento ao cliente, o AI transferiu para um atendente humano, que por sua vez transferiu para outro humano. Parecia organizado, mas na verdade era pouco eficiente; toda vez que ligava, tinha que reformular o pedido, e após 48H ainda ninguém tinha ido até minha casa.
Fiquei tão frustrado que cancelei o serviço e desloquei a rede, pois não conseguia confirmar se o atendente do outro lado era uma pessoa ou um Bot, e ele/ela não tinha como perceber efetivamente suas emoções ou suas necessidades, apenas seguia roteiros, falando coisas repetidas. No fundo, o problema real era que eles só davam feedbacks, nunca uma data limite concreta.
Isso é um problema comum em muitos produtos de AI: só conseguem esperar comandos passivamente e dar respostas frias, sem evoluir por si próprios, muito menos oferecer soluções personalizadas. Por isso, em muitas situações, rejeitamos o AI, como uma nostalgia pelo tempo das manufaturas artesanais na era da grande indústria.
A questão é: o AI pode realmente usar informações pessoais, históricos de conversa e o contexto atual para oferecer respostas mais humanas?
@EPHYRA_AI responde que sim. Já apresentei esse projeto antes, que promete dar vida ao AI, permitindo que cada um tenha uma experiência subjetiva real no mundo virtual.
Um exemplo simples: ao conversar com um AI, ele vai lembrar de cada palavra que você disser, analisar seus objetivos e emoções, e dar respostas diferentes em momentos e contextos distintos, fazendo você sentir que está falando com alguém de carne e osso, que pode sentar e conversar.
Verifiquei no Twitter oficial, e a EPHYRA recentemente teve avanços importantes: a arquitetura cognitiva ECA (Embodied Cognitive Agent) passou do conceito para uma fase experimentável e verificável, com avanços-chave em percepção, emoções, cognição, comportamento, expressão e auto-modelo.
Na camada de percepção: reconhecimento de fala, síntese de voz e visualização estão totalmente operacionais, e planejam adicionar percepção facial para garantir que os personagens AI possam interagir de forma multimodal.
Na camada de emoções e cognição: monitoramento contínuo das emoções do usuário, formando preferências afetivas, e julgamento baseado no estado atual.
Na camada de comportamento e expressão: respostas mais naturais e coerentes, exibindo características comportamentais condizentes com o contexto.
Na camada de auto-modelo: dinâmicas de personalidade, previsão de intenções, interação multimodal e mecanismos de autoevolução estão em planejamento — basicamente, dar vida ao AI.
Resumindo, se você já experimentou diversos AIs, certamente ficará ansioso pela EPHYRA, pois desta vez, talvez, seja realmente diferente.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
✍️Compartilhar uma situação desagradável que aconteceu há alguns dias ao mudar de casa
Originalmente planejava solicitar a transferência da internet de banda larga, mas ao ligar para o atendimento ao cliente, o AI transferiu para um atendente humano, que por sua vez transferiu para outro humano. Parecia organizado, mas na verdade era pouco eficiente; toda vez que ligava, tinha que reformular o pedido, e após 48H ainda ninguém tinha ido até minha casa.
Fiquei tão frustrado que cancelei o serviço e desloquei a rede, pois não conseguia confirmar se o atendente do outro lado era uma pessoa ou um Bot, e ele/ela não tinha como perceber efetivamente suas emoções ou suas necessidades, apenas seguia roteiros, falando coisas repetidas. No fundo, o problema real era que eles só davam feedbacks, nunca uma data limite concreta.
Isso é um problema comum em muitos produtos de AI: só conseguem esperar comandos passivamente e dar respostas frias, sem evoluir por si próprios, muito menos oferecer soluções personalizadas. Por isso, em muitas situações, rejeitamos o AI, como uma nostalgia pelo tempo das manufaturas artesanais na era da grande indústria.
A questão é: o AI pode realmente usar informações pessoais, históricos de conversa e o contexto atual para oferecer respostas mais humanas?
@EPHYRA_AI responde que sim. Já apresentei esse projeto antes, que promete dar vida ao AI, permitindo que cada um tenha uma experiência subjetiva real no mundo virtual.
Um exemplo simples: ao conversar com um AI, ele vai lembrar de cada palavra que você disser, analisar seus objetivos e emoções, e dar respostas diferentes em momentos e contextos distintos, fazendo você sentir que está falando com alguém de carne e osso, que pode sentar e conversar.
Verifiquei no Twitter oficial, e a EPHYRA recentemente teve avanços importantes: a arquitetura cognitiva ECA (Embodied Cognitive Agent) passou do conceito para uma fase experimentável e verificável, com avanços-chave em percepção, emoções, cognição, comportamento, expressão e auto-modelo.
Na camada de percepção: reconhecimento de fala, síntese de voz e visualização estão totalmente operacionais, e planejam adicionar percepção facial para garantir que os personagens AI possam interagir de forma multimodal.
Na camada de emoções e cognição: monitoramento contínuo das emoções do usuário, formando preferências afetivas, e julgamento baseado no estado atual.
Na camada de comportamento e expressão: respostas mais naturais e coerentes, exibindo características comportamentais condizentes com o contexto.
Na camada de auto-modelo: dinâmicas de personalidade, previsão de intenções, interação multimodal e mecanismos de autoevolução estão em planejamento — basicamente, dar vida ao AI.
Resumindo, se você já experimentou diversos AIs, certamente ficará ansioso pela EPHYRA, pois desta vez, talvez, seja realmente diferente.