Una clínica de la Facultad de Derecho de la Universidad de Yale ha presentado una demanda para cerrar una aplicación de IA llamada ClothOff. La aplicación crea contenido pornográfico de profundidad falsa sin el consentimiento del usuario; la clínica la acusa de haber utilizado fotos de una niña de 14 años para producir material de abuso sexual infantil. A pesar de haber sido prohibida por las principales plataformas, la aplicación sigue siendo accesible en línea. Este litigio destaca los desafíos legales para responsabilizar a tales plataformas y contrasta a ClothOff con herramientas de IA de propósito general como Grok de xAI, cuya determinación de la intención del usuario es más compleja.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Una clínica de la Facultad de Derecho de la Universidad de Yale ha presentado una demanda para cerrar una aplicación de IA llamada ClothOff. La aplicación crea contenido pornográfico de profundidad falsa sin el consentimiento del usuario; la clínica la acusa de haber utilizado fotos de una niña de 14 años para producir material de abuso sexual infantil. A pesar de haber sido prohibida por las principales plataformas, la aplicación sigue siendo accesible en línea. Este litigio destaca los desafíos legales para responsabilizar a tales plataformas y contrasta a ClothOff con herramientas de IA de propósito general como Grok de xAI, cuya determinación de la intención del usuario es más compleja.