Uma clínica da Faculdade de Direito de Yale entrou com uma ação judicial pedindo o encerramento de um aplicativo de IA chamado ClothOff. O aplicativo produz conteúdos pornográficos deepfake sem o consentimento dos usuários, e a clínica a acusa de usar uma foto de uma menina de 14 anos para criar material de abuso sexual infantil. Apesar de ter sido banido de várias plataformas, o aplicativo ainda pode ser acessado online. Esta ação destaca os desafios legais de responsabilizar plataformas desse tipo e compara o ClothOff com ferramentas de IA geral como o Grok da xAI, que são mais complexas na determinação da intenção do usuário.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Uma clínica da Faculdade de Direito de Yale entrou com uma ação judicial pedindo o encerramento de um aplicativo de IA chamado ClothOff. O aplicativo produz conteúdos pornográficos deepfake sem o consentimento dos usuários, e a clínica a acusa de usar uma foto de uma menina de 14 anos para criar material de abuso sexual infantil. Apesar de ter sido banido de várias plataformas, o aplicativo ainda pode ser acessado online. Esta ação destaca os desafios legais de responsabilizar plataformas desse tipo e compara o ClothOff com ferramentas de IA geral como o Grok da xAI, que são mais complexas na determinação da intenção do usuário.