Uma grande plataforma de IA implementou recentemente salvaguardas para impedir que o seu chatbot generativo crie imagens íntimas não consensuais de indivíduos reais. A medida surge após críticas internacionais crescentes em relação à capacidade da ferramenta de gerar mídia sintética sexualizada envolvendo tanto mulheres adultas quanto menores. Isso reflete tensões mais amplas na indústria entre capacidades de inovação e limites éticos—um desafio que muitos projetos Web3 e de IA enfrentam ao implementar modelos generativos poderosos em grande escala.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
14 gostos
Recompensa
14
7
Republicar
Partilhar
Comentar
0/400
PumpBeforeRug
· 4h atrás
Finalmente alguém agiu, mas por que é sempre só quando levam críticas que adicionam proteção?
Ver originalResponder0
LayerZeroHero
· 22h atrás
Mais uma vez, no final é só colocar um filtro e fica tudo resolvido🙄
Ver originalResponder0
unrekt.eth
· 01-15 05:51
Hmm... finalmente há uma empresa a começar a bloquear essa vulnerabilidade, mas, para ser honesto, já devia ter sido feito há muito tempo
Ver originalResponder0
SigmaValidator
· 01-15 05:51
Meu Deus, é sempre a mesma coisa? Basta adicionar safeguard? Acho que isso é mais uma resposta passiva à pressão da opinião pública...
Ver originalResponder0
MEVictim
· 01-15 05:45
ngl Esta estratégia é realmente batida, depois que a tempestade passar, vamos continuar a usar do mesmo jeito
Ver originalResponder0
MetadataExplorer
· 01-15 05:30
Desculpa, irmã, ainda estás a usar aquele esquema de salvaguarda. Modelos que realmente funcionam já teriam sido lançados há muito tempo.
Ver originalResponder0
WhaleInTraining
· 01-15 05:27
Finalmente, decidimos agir, era mais do que altura de intervir.
Uma grande plataforma de IA implementou recentemente salvaguardas para impedir que o seu chatbot generativo crie imagens íntimas não consensuais de indivíduos reais. A medida surge após críticas internacionais crescentes em relação à capacidade da ferramenta de gerar mídia sintética sexualizada envolvendo tanto mulheres adultas quanto menores. Isso reflete tensões mais amplas na indústria entre capacidades de inovação e limites éticos—um desafio que muitos projetos Web3 e de IA enfrentam ao implementar modelos generativos poderosos em grande escala.