Deepfake : Illusion ou réalité ? Comment l'IA abuse de notre confiance
Publié le: 24 Fév 2024
Dernière modification le: 8 Sep 2025
Qu’est-ce qu’un deepfake ? Vous souvenez-vous encore des paroles de Barack Obama : « Le président Trump est un total et complet dipshit ! »? Plutôt provocateur, on n’est pas habitué à de telles déclarations de la part de l’ex-président américain. Mais a-t-il vraiment dit cela ? Bien sûr que non. Cette vidéo est ce que l’on appelle un deepfake et a été créée par Jordan Peele pour montrer à quel point un tel fake peut être dangereux. Mais approfondissons un peu la question.
Qu’est-ce qu’un deepfake et à quoi sert-il ?
Deepfake est un néologisme composé de « deep learning » et de « fake ». Il décrit une méthode de manipulation d’images, de vidéos ou de formats audio (avec l’aide de l’intelligence artificielle) d’une manière telle que l’œil ou l’oreille humaine peut difficilement percevoir les contrefaçons. Mais quel est l’objectif exact d’un deepfake, et comment est-il généré en premier lieu ?
Pour créer un deepfake, on utilise ce que l’on appelle des réseaux neuronaux. Ces réseaux agissent de la même manière que le cerveau humain et, à partir d’un grand nombre de données, peuvent prédire à quoi ressembleront d’autres données du même type. Par conséquent, si vous nourrissez ces réseaux avec suffisamment d’images, de vidéos et de contenus audio, ils s’améliorent de plus en plus et créent des manipulations de meilleure qualité.
Un réseau neuronal très efficace est le GAN. Il a été mentionné pour la première fois dans un article scientifique de Ian Goodfellow en 2014. Au fil des ans, plusieurs chercheurs ont continué à développer ces réseaux et à les combiner entre eux. En conséquence, les contrefaçons sont devenues de meilleure qualité et plus crédibles. Mais tout d’abord, définissons ce qu’est un GAN.
Un GAN – abréviation de Generative Adversarial Networks – est un réseau composé de deux algorithmes. L’un des algorithmes falsifie une image (le faussaire) tandis que l’autre algorithme tente de détecter la falsification (l’enquêteur). Si l’enquêteur parvient à identifier la falsification, le faussaire en tire des enseignements et s’améliore constamment. Ce processus est également appelé apprentissage en profondeur.
Quels sont les types de deepfakes ?
Le premier type, et probablement le plus répandu, est l’échange de visages sur des photos ou des vidéos, appelé « face-swapping ». Dans ce cas, les têtes de personnes célèbres sont généralement prises et placées dans un contexte différent.
L’échange de voix est une méthode similaire. Comme son nom l’indique, les voix ou le contenu audio général sont manipulés pour ressembler à une personne spécifique. Cette méthode peut être développée avec la manipulation des expressions faciales, de sorte que les mots prononcés correspondent aux mouvements des lèvres et du visage.
Enfin, il y a la marionnette corporelle. Ici, les mouvements du corps sont analysés et peuvent même être imités en temps réel.
Pourquoi les deepfakes sont-ils si dangereux ?
La technologie a été mise en place en 2014 et a été progressivement développée et améliorée. En 2017, la technologie a atteint le point où les premières vidéos ont pu être produites. Cela a conduit les internautes à exploiter les deepfakes pour manipuler des contenus pornographiques, qui ont été mis à disposition pour la première fois sur la plateforme internet Reddit. Ces vidéos montraient des célébrités dans des positions compromettantes. Selon une étude de Sensity (alors connue sous le nom de Deeptrace), 96 % de toutes les vidéos deepfake en 2019 étaient pornographiques et concernaient exclusivement des femmes.
« Le développement d’une intelligence artificielle complète pourrait sonner le glas de la race humaine.
– Stephen Hawking
Avec le temps et le développement continu du processus d’apprentissage en profondeur, de plus en plus de chaînes YouTube ont été créées pour tromper. Des faux de politiciens, d’acteurs et d’autres personnalités publiques ont commencé à voir le jour. De 2018 à 2020, le nombre de fausses vidéos a doublé tous les six mois, pour atteindre plus de 85 000 en décembre 2020.
Hao Li, un expert des « deepfakes », a prévenu que nous ne pourrons bientôt plus identifier les « deepfakes » comme étant des « fakes ». Le problème, cependant, n’est pas la technologie elle-même, mais le manque de moyens pour reconnaître ces faux. « Les deepfakes seront parfaits dans deux ou trois ans », a déclaré M. Li.
La vérité dans cette affirmation est révélée dans un concours de programmation lancé par Facebook AI en 2019. Le groupe a développé un ensemble de données de 124 000 vidéos, 8 algorithmes de modification du visage et des documents de recherche associés. Mais même les meilleurs concurrents n’ont atteint qu’un taux de détection d’un peu plus de 65 %.
« Ce résultat renforce l’importance de l’apprentissage de la généralisation à des exemples imprévus lorsqu’il s’agit de relever les défis de la détection de deepfake », a expliqué un porte-parole de Facebook AI.
Exemple d’utilisation abusive de deepfakes
L’ampleur des dégâts que peuvent causer les deepfakes peut être illustrée, entre autres exemples, par une affaire survenue au Gabon en 2018. Le président Ali Bongo, qui n’avait plus fait parler de lui depuis très longtemps et dont certains pensaient qu’il était mort, a publié une vidéo d’un discours. Les opposants politiques ont qualifié la vidéo de deepfake, ce qui a déclenché une tentative de coup d’État de la part des militaires.
TW : Violence contre les enfants/les jeunes
Un autre cas effrayant est raconté par X Gonzáles, un fervent défenseur d’une législation plus stricte sur les armes à feu aux États-Unis. Gonzáles est une survivante du massacre de l’école de Parkland et a acquis une reconnaissance internationale pour son discours émouvant lors d’un service commémoratif à la suite de l’événement. Les opposants à une nouvelle législation sur les armes à feu ont diffamé Mme Gonzáles dans une vidéo, la représentant en train de déchirer la Constitution américaine. Dans la vidéo originale, elle déchire une cible.
Une vidéo produite sur la démocrate américaine Nancy Pelosi démontre la capacité de l’échange de voix. Les partisans de Trump, et donc les concurrents de la présidente de la Chambre des représentants, ont monté une vidéo pour la faire apparaître ivre et quelque peu confuse. Le faux a été cliqué des millions de fois, bien que Nancy Pelosi ne boive pas d’alcool.
TW : Violence sexualisée
Le scandale suivant a concerné Rana Ayyub. Cette journaliste indienne a fait un commentaire sur le parti nationaliste BJP, l’accusant de défendre les abuseurs d’enfants. En conséquence, et pour tenter de saper sa crédibilité, un faux film pornographique a été réalisé à son sujet par ceux qui critiquaient ses actions.
Quelles sont les applications disponibles pour créer des deepfakes ?
DeepFaceLab: DeepFaceLab est probablement l’application open-source la plus connue. Selon les développeurs de l’application, 95 % de toutes les vidéos « deepfake » sont générées avec DeepFaceLab. L’application permet d’échanger des visages ou des têtes entières, de modifier l’âge d’une personne ou d’ajuster le mouvement des lèvres d’inconnus. DeepFaceLab est disponible pour Windows et Linux.
Zao: Contrairement à DeepFaceLab, Zao est une application pour smartphones. Originaire de Chine, l’application extrêmement populaire crée de fausses vidéos en quelques secondes et est axée sur le divertissement. Jusqu’à présent, l’application n’est disponible qu’en Chine (ou pour ceux qui ont un numéro de téléphone chinois) sur Android et iOS. Récemment, l’application a été critiquée pour sa politique de confidentialité douteuse. Les utilisateurs renoncent à tous les droits sur leurs propres images et vidéos lorsqu’ils utilisent l’application.
FaceApp: L’application a gagné en popularité en 2019. Elle offre de nombreuses fonctions telles que le rajeunissement ou le vieillissement, l’ajout de barbes, de maquillage, de tatouages, de coiffures ou même la possibilité de changer de sexe. Cependant, tout comme Zao, FaceApp a également fait l’objet de nombreuses critiques concernant ses politiques de confidentialité. Ici aussi, les droits à l’image et à la vidéo sont cédés. L’application est disponible pour Android et iOS.
Avatarify: Enfin, nous avons Avatarify. Avec cette application, les utilisateurs peuvent créer des deepfakes en direct dans les chats vidéo. La technologie est capable de recréer en temps réel les mouvements du visage tels que les clignements d’yeux et les mouvements de la bouche, ce qui permet d’obtenir des imitations extrêmement réalistes. Cependant, les exigences de base ne sont pas sans difficulté. Vous devez disposer d’une carte graphique puissante et d’autres outils supplémentaires pour pouvoir procéder à l’installation. Le logiciel est disponible pour Windows, Mac et Linux ou sous une forme allégée pour iOS.
Comment reconnaître un deepfake ?
Il n’est pas toujours facile de démasquer un deepfake. Tout d’abord, vérifiez toujours le contexte de la vidéo ou de l’image et demandez-vous si le contexte a un sens. Le FBI a également publié une liste dans laquelle il met en évidence les caractéristiques des « deepfakes ». Cette liste comprend, entre autres, les éléments suivants
- Indicateurs visuels tels que distorsions, déformations ou incohérences.
- Espacement des yeux/positionnement des yeux distincts
- Mouvements perceptibles de la tête et du corps
- Problèmes de synchronisation entre les mouvements du visage et des lèvres et les sons associés
- Distorsions visuelles distinctes, généralement au niveau des pupilles et des lobes d’oreille
- Arrière-plans indistincts ou flous
- Artéfacts visuels dans l’image ou la vidéo
Mais les deepfakes sont-ils uniquement négatifs ?
Les « deepfakes » ne sont pas exclusivement négatifs. L’un de leurs effets positifs peut être observé dans le monde du cinéma. Par exemple, Luke Skywalker a été artificiellement imité dans la série Mandalorian. Disney prévoit également de réaliser d’autres films à base de deepfakes en utilisant sa technologie de deepfakes Disney Megapixel. À l’avenir, il sera possible de réaliser des films avec des acteurs déjà décédés.
Des progrès sont également réalisés dans le domaine de la formation en ligne. L’entreprise de logiciels Synthesia a développé une IA qui génère des vidéos à partir de textes. Les vidéos contiennent des personnes créées artificiellement qui peuvent reproduire le contenu souhaité. Dans le cas de Synthesia, cette technologie est utilisée pour créer des cours en ligne, des présentations, des vidéos personnalisées ou des chatbots.
Un autre exemple de l’utilisation innovante de la technologie deepfake est démontré par une équipe de chercheurs de Moscou. Ils ont réussi à donner vie à la Joconde. Vous pouvez admirer l’émouvante peinture à l’huile sur YouTube.
Se prémunir contre les « deepfakes » : L’importance de la sensibilisation du personnel à la cybersécurité
En conclusion, alors que la prévalence de la technologie des deepfakes ne cesse de croître, il est impératif que les entreprises prennent des mesures proactives pour se protéger contre les cyberdangers liés à l’IA. Il est essentiel d’offrir au personnel une formation complète de sensibilisation à la cybersécurité pour lui permettre d’acquérir les connaissances et les compétences nécessaires à l’identification et à l’atténuation des risques associés aux « deepfakes ». En investissant dans de telles initiatives de formation, les entreprises peuvent renforcer leurs défenses et protéger leurs opérations contre les menaces en constante évolution posées par les manipulations malveillantes de l’IA. Il ne s’agit pas seulement de protéger les données et la réputation de l’organisation, mais aussi de donner aux employés les moyens de devenir des gardiens vigilants de l’intégrité numérique à une époque où la confiance et l’authenticité sont de plus en plus menacées.