Uma grande plataforma de IA implementou recentemente salvaguardas para impedir que o seu chatbot generativo crie imagens íntimas não consensuais de indivíduos reais. A medida surge após críticas internacionais crescentes em relação à capacidade da ferramenta de gerar mídia sintética sexualizada envolvendo tanto mulheres adultas quanto menores. Isso reflete tensões mais amplas na indústria entre capacidades de inovação e limites éticos—um desafio que muitos projetos Web3 e de IA enfrentam ao implementar modelos generativos poderosos em grande escala.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
15 Curtidas
Recompensa
15
8
Repostar
Compartilhar
Comentário
0/400
GateUser-1a2ed0b9
· 2h atrás
Esta é a verdadeira forma de abrir, finalmente alguém começou a levar a sério
Ver originalResponder0
PumpBeforeRug
· 01-16 18:15
Finalmente alguém agiu, mas por que é sempre só quando levam críticas que adicionam proteção?
Ver originalResponder0
LayerZeroHero
· 01-16 00:58
Mais uma vez, no final é só colocar um filtro e fica tudo resolvido🙄
Ver originalResponder0
unrekt.eth
· 01-15 05:51
Hmm... finalmente há uma empresa a começar a bloquear essa vulnerabilidade, mas, para ser honesto, já devia ter sido feito há muito tempo
Ver originalResponder0
SigmaValidator
· 01-15 05:51
Meu Deus, é sempre a mesma coisa? Basta adicionar safeguard? Acho que isso é mais uma resposta passiva à pressão da opinião pública...
Ver originalResponder0
MEVictim
· 01-15 05:45
ngl Esta estratégia é realmente batida, depois que a tempestade passar, vamos continuar a usar do mesmo jeito
Ver originalResponder0
MetadataExplorer
· 01-15 05:30
Desculpa, irmã, ainda estás a usar aquele esquema de salvaguarda. Modelos que realmente funcionam já teriam sido lançados há muito tempo.
Ver originalResponder0
WhaleInTraining
· 01-15 05:27
Finalmente, decidimos agir, era mais do que altura de intervir.
Uma grande plataforma de IA implementou recentemente salvaguardas para impedir que o seu chatbot generativo crie imagens íntimas não consensuais de indivíduos reais. A medida surge após críticas internacionais crescentes em relação à capacidade da ferramenta de gerar mídia sintética sexualizada envolvendo tanto mulheres adultas quanto menores. Isso reflete tensões mais amplas na indústria entre capacidades de inovação e limites éticos—um desafio que muitos projetos Web3 e de IA enfrentam ao implementar modelos generativos poderosos em grande escala.