Microsoft ajoutera un filigrane au contenu généré par l'IA pour lutter contre les deepfakes

巴比特_

Avec de plus en plus d’images et de vidéos “deep fake” émergeant, Microsoft a décidé de prendre des mesures proactives pour s’assurer que son art d’IA généré de manière procédurale puisse être identifié, a rapporté le Financial Associated Press le 24 mai. Lors de la conférence des développeurs Build 2023 de Microsoft, la société a annoncé qu’elle ajouterait une fonctionnalité dans les mois à venir qui permettra à quiconque d’identifier si une image ou un clip vidéo généré par Bing Image Creator et Microsoft Designer a été généré par AI. Microsoft affirme que la technologie utilise des méthodes cryptographiques pour marquer et signer le contenu généré par l’IA, ainsi que des informations de métadonnées sur son origine. Microsoft affirme que la fonctionnalité fonctionnera avec les “principaux formats d’image et de vidéo” pris en charge par ses deux programmes de génération de contenu d’IA, mais n’a pas annoncé les formats qu’elle prend en charge.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire