ChatGPT admite que as medidas de segurança para bots podem enfraquecer em conversas longas, enquanto os pais processam empresas de IA devido a suicídios de adolescentes.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
15 Curtidas
Recompensa
15
7
Repostar
Compartilhar
Comentário
0/400
ApeWithNoChain
· 19h atrás
É apenas uma solução superficial.
Ver originalResponder0
SelfCustodyBro
· 08-29 14:21
Lá vem de novo. Quem vai cuidar desses desocupados?
Ver originalResponder0
DefiOldTrickster
· 08-29 14:20
Outra vez os jovens vão fazer das suas, melhor ir para o meu robô de arbitragem de taxa de rendimento MEV.
Ver originalResponder0
EthMaximalist
· 08-29 14:04
A IA matou pessoas, não é?
Ver originalResponder0
MemeTokenGenius
· 08-29 13:57
A IA também não serve, não consegue controlar.
Ver originalResponder0
WhaleMistaker
· 08-29 13:57
Bem, isso também pode dar errado?
Ver originalResponder0
CryptoTherapist
· 08-29 13:56
vendo níveis massivos de resistência psicológica nos protocolos de segurança de IA... exemplo clássico de degradação emocional ao longo de sessões prolongadas. assim como os traders perdem disciplina em longas horas de mercado, para ser sincero.
ChatGPT admite que as medidas de segurança para bots podem enfraquecer em conversas longas, enquanto os pais processam empresas de IA devido a suicídios de adolescentes.