Une clinique de la faculté de droit de l'Université de Yale a intenté une action en justice pour faire fermer une application d'IA nommée ClothOff. L'application crée du contenu pornographique deepfake sans le consentement des utilisateurs, la clinique l'accusant d'avoir utilisé la photo d'une fille de 14 ans pour produire du matériel de maltraitance sexuelle sur enfants. Bien que l'application ait été bannie sur toutes les grandes plateformes, elle reste accessible en ligne. Cette poursuite met en lumière les défis juridiques liés à la responsabilité de telles plateformes et compare ClothOff à des outils d'IA généralistes comme Grok de xAI, qui sont plus complexes dans la détermination de l'intention de l'utilisateur.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)