Quand même je ne peux pas prouver que je ne suis pas une IA, les experts en forensique recommandent : établissez un code secret avec vos proches.

Les expériences de Deepfake révélées par le journaliste de la BBC Thomas Germain mettent en lumière une réalité cruelle : l’expert en forensic numérique Hany Farid a déclaré directement « It’s over » : personne ne pourra plus prouver qu’il n’est pas une IA.
(Précédent contexte : ZachXBT dévoile une ferme de fausses nouvelles de « fin du monde » : en utilisant l’IA pour faire monter le trafic de guerre, escroqueries, revente de memecoin, ils ont gagné des centaines de milliers de dollars.)
(Informations complémentaires : Far East Commercial Bank et le Bureau de la justice ont signé un MOU : 95 % des flux financiers cryptographiques à Taïwan sont intégrés dans le cadre d’enquêtes anti-blanchiment et anti-fraude.)

Table des matières

Toggle

  • Netanyahu doit lever les mains, compter ses doigts
  • Le bonus du menteur : créer le doute est gratuit
  • La fraude par IA a explosé de 20 fois, le monde cryptographique en premier

Le journaliste de la BBC Thomas Germain a décrit hier soir une expérience inquiétante : il a appelé sa tante Eleanor, qu’il connaît depuis toujours, en lui disant à l’avance que le prochain appel pourrait provenir d’un vrai humain ou d’un deepfake IA.

Résultat : sa tante n’a pas pu faire la différence. La conclusion de Germain est simple : si même les proches ne peuvent distinguer le vrai du faux, ce problème ne relève plus seulement de la technique.

Il a interrogé Hany Farid, professeur en forensic numérique à l’Université de Californie à Berkeley et co-fondateur de GetReal Security : « Que puis-je faire maintenant pour prouver que je ne suis pas une IA ? » La réponse de Farid est un seul mot : Non.

Tu es à New York, je suis à Berkeley, en Californie, et nous faisons une visioconférence. En réalité, tu peux tout simplement faire semblant.

Puis Farid a dit une phrase qui donne la chair de poule : « Impossible. C’est fini. »

Netanyahu doit lever les mains, compter ses doigts

Germain cite aussi un cas récent, particulièrement absurde. Lorsqu’il a publié une vidéo, le Premier ministre israélien Netanyahu a été victime d’un refraction de la lumière qui a fait apparaître un sixième doigt à sa main droite : c’était un classique signe de vulnérabilité pour détecter un deepfake IA.

Le réseau social a immédiatement explosé : des rumeurs disaient qu’il était mort dans une attaque de missile, la vidéo était fausse.

Pour prouver son innocence, Netanyahu a publié une deuxième puis une troisième vidéo, levant les mains dans un café, montrant un à un ses doigts pour confirmer leur nombre. Germain indique que Farid a ensuite analysé ces vidéos par reconnaissance vocale, détection faciale par image par image, et analyse de l’éclairage, concluant que toutes étaient authentiques : « aucune preuve qu’elles aient été générées par IA. »

Jeremy Carrasco, co-fondateur de Riddance, a aussi déclaré à la BBC : « Six doigts ne sont plus une caractéristique de l’IA, cet aspect a été corrigé il y a plusieurs années par les meilleurs outils. »

Mais Germain note une ironie : malgré l’aval d’experts, beaucoup croient encore que Netanyahu est mort. Il écrit que c’est peut-être la première fois dans l’histoire humaine que les dirigeants des grandes nations doivent publiquement prouver qu’ils ne sont pas une IA — et qu’ils échouent.

Le bonus du menteur : le doute est gratuit

Germain introduit le concept de « bonus du menteur » défini par des chercheurs : il est coûteux de prouver la vérité, mais il est gratuit de semer le doute. Les politiciens peuvent facilement prétendre qu’une vidéo authentique est un deepfake, et le temps, les ressources et la crédibilité nécessaires pour réfuter cette accusation dépassent souvent le coût de la propagation de la rumeur.

Samuel Woolley, président du Centre de recherche sur la désinformation à l’Université de Pittsburgh, trace aussi une trajectoire historique alarmante : « Au début de la guerre en Ukraine, j’ai vu des deepfakes maladroits. À Gaza, la qualité et la quantité de fausses informations ont augmenté. Au Venezuela, j’ai vu plus de fausses que de vraies. Et en Iran, ils ont porté cela à un tout autre niveau. »

Woolley nomme aussi directement les politiciens qui poussent à la régulation : « Ils goûtent maintenant leur propre poison. »

Quant aux solutions existantes, la conclusion de Germain est surprenante : le meilleur remède, selon l’expert en deepfake Hany Farid, c’est… un code secret.

Farid a expliqué à la BBC qu’il et sa femme ont un mot de passe secret pour se vérifier mutuellement lorsqu’ils reçoivent un appel suspect. En quelque sorte, c’est une version humaine de la double authentification : lorsque toutes les autres méthodes échouent, on revient à un protocole de confiance primordial.

La fraude par IA a explosé de 20 fois, le monde cryptographique en premier

Si l’article de Germain se concentre sur la crise de confiance sociale, les données de l’AARP (Association américaine des retraités) révèlent un coût financier encore plus direct : entre 2023 et 2025, les cas d’escroqueries liées à l’IA ont été multipliés par 20. La société d’ingénierie britannique Arup a déjà perdu 25 millions de dollars lors d’un appel vidéo où un deepfake de leur directeur financier a été utilisé pour escroquer.

Le marché des cryptomonnaies est encore plus touché. Selon Fintech Global, au premier trimestre 2026, le montant des escroqueries cryptographiques a atteint 200 millions de dollars, en hausse de 340 % sur un an ; on estime que 70 % des fraudes dans ce secteur seront dues à des deepfakes.

Ce qui inquiète aussi les régulateurs, c’est un outil appelé ProKYC : pour seulement 629 dollars par an, il offre un simulateur virtuel, des animations faciales et la génération d’empreintes digitales, permettant de créer de toutes pièces une nouvelle identité et de contourner la vérification biométrique KYC des plateformes cryptographiques. Le ministère américain des Finances a déjà exigé un renforcement de la régulation de l’intégration de l’IA et des systèmes d’identité numérique.

Une autre évolution potentiellement encore plus impactante est que des agents IA peuvent désormais gérer eux-mêmes des portefeuilles et initier des transactions de façon autonome. Dans ce contexte, qui est le « client » ? Un humain ou l’IA elle-même ? La définition réglementaire du KYC pourrait alors devenir un vide juridique.

C’est ironique : on construit des systèmes de vérification pour détecter l’IA, mais l’IA évolue pour contourner ces vérifications. Et au final, la seule méthode encore fiable pourrait bien être… un vieux code secret entre vous et vos proches.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire