PRAGMAMEDIA-LOGO

Deep Fake et manipulation des images, le numérique en ordre de bataille

Deep Fake et manipulation des images, le numérique en ordre de bataille

deepfake verification des images videos
deepfake verification des images videos

Barack Obama, Donald Trump, Angela Merkel, Keanu Reeves ou encore Volodymyr Zelensky ont vu leur image détournée par le Deepfake. Si certains trucages ont pour objectif d’alerter les publics, cette technologie a déjà fait des dégâts. L’inquiétude est croissante, mais des solutions existent.

Les faits : Un large panel de nuisance

Le deepfake consiste à exploiter l’Intelligence Artificielle pour modifier rapidement des images et des sons. La technologie peut être utilisée à des fins de divertissement ou de fraude. L’un des cas les plus problématiques est intervenu en mars 2022. Ukraine24 a diffusé une allocution de Volodymyr Zelensky annonçant la capitulation du pays. Le média a rapidement dénoncé le piratage de son site internet ayant permis la diffusion de ce trucage.

En Malaisie le procédé fut utilisé pour accuser le ministre de l’économie Datuk Seri Azmin Ali, de relation sexuelle avec son secrétaire adjoint (où l’homosexualité est passible de 20 ans de prison). Les médias locaux n’ont pas vérifié l’authenticité de la vidéo et Seri Azmin s’est vu arrêté par les autorités, avant d’être relâché grâce aux vérifications faites à posteriori. Le même usage existe entre utilisateurs des réseaux sociaux pour initier une campagne de harcèlement, en prenant le visage de la victime pour l’apposer sur un film pornographique.

Moins connue, la technologie permet aussi des fraudes douanières et attire l’intérêt des réseaux criminels. Altérer une photo ou vidéo de sécurité devient très facile. Permettant d’ajouter des marchandises ou d’en soustraire pour faire transiter la contrebande ou dissimuler des vols.

 

Altérer les images de sécurité permet de crédibiliser la falsification des registres douaniers

L’espionnage est aussi un débouché. Le FBI a lancé une alerte en juin à l’attention des entreprises et administrations. Le deepfake est désormais utilisé en temps réel lors d’entretiens par visioconférence, pour des postes prévus en télétravail. Les fraudeurs peuvent ainsi se faire recruter sous une fausse identité et obtenir des informations commerciales, stratégiques ou technologiques sur une entreprise.

La menace constituée par cette méthode réside dans l’instantanéité de la visioconférence qui complique le recours à un logiciel de vérification. La solution proposée consiste à demander à l’interlocuteur de passer sa main devant son visage, ou de tourner la tête pour troubler le trucage. Mais ces options ne dureront que le temps de voir des logiciels de deepfake plus agiles.

Faute de logiciel de vérification grand public, les solutions proposées aux non professionnels se concentrent autour du bricolage. Certains sites conseillent d’observer le clignement des yeux en précisant que souvent, le deepfake n’intègre pas ce réflexe humain. Ou de chercher des défauts dans la reproduction du nez, des pommettes, des yeux ou des oreilles. Pour aiguiser ses réflexes, un quiz est disponible en anglais sur le site StopDeepFake. Il pousse à affiner son sens critique pour avoir les bons réflexes. Si par exemple, un individu tient un discours diamétralement opposé à ses idées et positions habituelles, il est évident que la méfiance doit être privilégiée. Et dans ce cas, il faut vérifier l’information directement sur le compte officiel du concerné.

France24 particulièrement confrontée aux risques de manipulation par son traitement de l’actualité internationale, a mis à disposition du public un tutoriel offrant un kit pour vérifier des images et des vidéos. Le tutoriel du Global Investigative Journalism Network (GIJN) propose aussi de bons conseils. L’Union Européenne c’est quant à elle associé à WeVerify et son plugin directement utilisable dans un navigateur internet : InVid. Et finance par la Commission Européenne le projet YouVerify. Outre les outils informatiques, le programme propose des cours de lutte contre la désinformation.

Si la vérification à l’œil nu et ces quelques outils apportent une sécurité contre les trucages les moins performants, ces techniques sont déjà obsolètes face au deepfake. Les vérifications en image inversée sont par exemples contrées par des contenus crées de toute pièce et donc sans antécédent dans les archives numériques.

Mais derrière une vidéo se trouve du code informatique. C’est au sein de celui ci qu’il sera probablement possible de dissocier l’image authentique de l’image retouchée. Il est permis d’espérer un outil de vérification simple et accessible à tous. Les géants du numérique investissent déjà dans la recherche pour automatiser les certifications de contenus audiovisuels.

Le contexte : l’éternel course entre le virus et l’anti virus

La dynamique qui entoure la lutte contre les trucages audiovisuels est la même que dans la lutte contre les virus ou la criminalité en général. Les fraudeurs aiguisent leurs stratagèmes en même temps que les outils de sécurité se sophistiquent. Quand l’un progresse, l’autre se met à jour. L’essentiel étant de ne pas se faire distancer par les fraudeurs.

Les trucages modernes exploitent l’IA pour gagner en rapidité, c’est donc tout naturellement que les entreprises souhaitant lutter contre, se concentrent sur la création d’IA de vérification. Pour faire face à une fraude automatisable, il faut une sécurité automatisée. Intel a annoncé au mois de novembre les résultats de son logiciel FakeCatcher. Prévu pour un contrôle des flux en direct, l’outil serait en capacité de détecter 96% des trucages. Pour cela l’IA observe le flux sanguin des visages. Vous devinez la suite : le logiciel devra s’adapter à la future capacité du deepkfake, qui ne manquera pas d’intégrer un flux sanguin réaliste.

 

Bilan du logiciel FakeCatcher, source Intel, développeur Intel.

L’Université de Berkeley et celle de Californie du Sud, travaillent sur une IA capable de comparer les mimiques faciales des personnes dont l’identité pourrait être détournée, pour déterminer la présence d’incohérences. Les premiers résultats communiqués indiquent une capacité de détection des trucages à 92%. Mais quand on annonce sa méthode de vérification, on offre l’opportunité aux pirates de mettre leurs outils à jour. Si ces deux solutions offrent de bons résultats, elles sont vouées à une obsolescence rapide.

Au regard des enjeux et des opportunités économiques, les GAFAM s’intéressent de prêt au sujet. Google a inscrit la lutte contre les deepfake dans son cahier des charges. Des partenariats avec plusieurs universités ont été initiés. Dont l’Université Technique de Munich et l’Université Frederico II de Naples. Objectif : constituer des bases de donnée et générer des deepfake pour permettre aux chercheurs exerçant les IA de vérification, d’avoir un support de travail plus complet. Une autre similitude avec la protection informatique qui consiste à engager les compétences contre lesquelles on souhaite lutter. Les banques  engagent des hackers pour tester leurs services, les GAFAMS engagent des spécialistes du DeepFake pour exercer les outils de vérifications.

Autre géant du numérique soucieux de cette technologie : Facebook. La firme lance en 2019 le DeepFake Detection Challenge. Pour l’entreprise « Le but du défi est de produire une technologie que tout le monde peut utiliser pour mieux détecter quand l’IA a été utilisée pour modifier une vidéo ». Il s’agirait d’éviter l’emballement avant la diffusion d’un trucage en permettant des détections instantanées.
En 2020 Facebook annonce les résultats du concours. Au total, plus de 2000 participants ont tenté d’empocher les 10 millions de dollars promis aux meilleurs logiciels. L’initiative la plus probante affichait une fiabilité de 82%. La base de donnée à « debunker » comptait 100.000 vidéos. Mais on différencie les résultats selon le niveau d’opacité du code utilité pour générer les DeepFake. Dans les scénarios les plus opaques, la détection tombe à 65%. Facebook a annoncé poursuivre ces recherches en collaboration avec les meilleurs participants.

Il reste du chemin à parcourir pour que les réseaux sociaux, les moteurs de recherche et les sites d’hébergement de vidéos soient en mesure de réguler les fakes dès leur publication, avec une efficacité durable. Pour le moment l’utilisation combinée du sens critique, de la recherche de sources et l’utilisation de logiciels, permettent tout de même de contrer les manipulations. Pour peu que l’on ne se précipite pas dès la consultation d’une vidéo, en la partageant immédiatement. Le premier allié de la désinformation restant l’envie des utilisateurs, d’être les premiers à partager un contenu choquant. Or plus une information nous semble importante, plus nous devons avoir à cœur de la vérifier. Dans le doute, un peu d’attente suffit généralement à éclairer l’actualité et la plupart des médias sont à l’écoute de vos demandes de vérification.