Une plateforme d'IA majeure a récemment mis en place des mesures de sécurité pour empêcher son chatbot génératif de créer des images intimes non consensuelles de personnes réelles. Cette initiative fait suite à une critique internationale croissante concernant la capacité de l'outil à générer des médias synthétiques sexualisés impliquant à la fois des femmes adultes et des mineurs. Cela reflète des tensions plus larges dans l'industrie entre les capacités d'innovation et les garde-fous éthiques — un défi auquel de nombreux projets Web3 et IA sont confrontés lorsqu'ils déploient des modèles génératifs puissants à grande échelle.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
7
Reposter
Partager
Commentaire
0/400
PumpBeforeRug
· Il y a 55m
Enfin quelqu'un a agi, mais pourquoi est-ce qu'on ne met en place une protection qu'après avoir été critiqué ?
Voir l'originalRépondre0
LayerZeroHero
· Il y a 18h
Encore une fois, de toute façon, il suffit d'ajouter un filtre à la fin🙄
Voir l'originalRépondre0
unrekt.eth
· 01-15 05:51
Hmm... enfin une entreprise commence à bloquer cette faille, mais pour être honnête, cela aurait dû être fait il y a longtemps
Voir l'originalRépondre0
SigmaValidator
· 01-15 05:51
Mince alors, encore cette méthode ? Il suffit d'ajouter safeguard ? Je pense que c'est surtout une réponse passive face à la pression de l'opinion publique...
Voir l'originalRépondre0
MEVictim
· 01-15 05:45
ngl cette stratégie est vraiment cliché, après la tempête, on continuera à l'utiliser comme d'habitude
Voir l'originalRépondre0
MetadataExplorer
· 01-15 05:30
Désolé, sœur, encore à sortir cette garde-fou, un modèle qui peut vraiment fonctionner aurait déjà été lancé.
Voir l'originalRépondre0
WhaleInTraining
· 01-15 05:27
Ça y est, on a enfin décidé de passer à l'action, il aurait dû le faire depuis longtemps.
Une plateforme d'IA majeure a récemment mis en place des mesures de sécurité pour empêcher son chatbot génératif de créer des images intimes non consensuelles de personnes réelles. Cette initiative fait suite à une critique internationale croissante concernant la capacité de l'outil à générer des médias synthétiques sexualisés impliquant à la fois des femmes adultes et des mineurs. Cela reflète des tensions plus larges dans l'industrie entre les capacités d'innovation et les garde-fous éthiques — un défi auquel de nombreux projets Web3 et IA sont confrontés lorsqu'ils déploient des modèles génératifs puissants à grande échelle.