Deepfakes : la démocratisation d'une technologie frauduleuse
Longtemps cantonnées à des acteurs spécialisés et disposant de moyens techniques importants, les technologies de deepfake ont radicalement changé de statut. Elles sont désormais à la portée du plus grand nombre, entraînant une prolifération inquiétante d'arnaques peu coûteuses et hautement personnalisées. Ces fraudes sophistiquées ciblent indifféremment les particuliers et les professionnels, marquant un changement d'échelle significatif dans la cybercriminalité.
Une industrialisation de la fraude par deepfake
Selon le bilan des incidents liés à l'intelligence artificielle établi par l'AI Incident Database et relayé par The Guardian, couvrant la période de novembre 2025 à janvier 2026, la fraude via deepfake a atteint ce que les experts qualifient de "vitesse industrielle". Ces trucages vidéo ou photo hyperréalistes générés par IA, qui nécessitaient auparavant une expertise technique pointue et un investissement matériel conséquent, sont devenus accessibles grâce aux progrès fulgurants de l'intelligence artificielle générative.
Fred Heiding, chercheur à Harvard spécialisé dans les arnaques utilisant l'intelligence artificielle, confirme cette évolution : "La situation a évolué. C'est devenu tellement abordable que presque tout le monde peut s'en servir. Les modèles sont de plus en plus performants et progressent bien plus vite que ce que la plupart des experts imaginent." Aujourd'hui, presque n'importe qui, équipé d'un simple ordinateur portable et d'une connexion internet, peut produire en quelques minutes des imitations convaincantes.
Des arnaques hyper-personnalisées en pleine expansion
L'étude a recensé plus d'une douzaine de cas récents d'usurpation d'identité à des fins lucratives. Parmi les exemples cités figurent des faux médecins vantant des crèmes pour la peau, des responsables politiques promouvant des placements bidon, ou encore des dirigeants d'entreprise appelant leurs équipes à transférer des fonds. Une vidéo truquée du premier ministre d'Australie-Occidentale, Robert Cook, vantant les mérites d'un programme d'investissement, illustre parfaitement cette tendance.
Contrairement aux arnaques classiques reposant sur des mails d'hameçonnage ou des appels téléphoniques suspects, les fraudeurs modernes misent désormais sur des campagnes ultra-personnalisées. En 2025, un individu s'était ainsi fait passer pendant des mois pour Brad Pitt, soutirant des dizaines de milliers d'euros à une femme de 53 ans qui croyait vivre une relation amoureuse avec la star.
Des conséquences économiques et sociales dramatiques
Simon Mylius, chercheur au MIT travaillant sur un projet lié à la base de données sur les incidents d'IA, souligne que les "fraudes, escroqueries et manipulations ciblées" représentent désormais la majorité des incidents liés à l'IA au cours de 11 des 12 derniers mois. "L'accès à ce système est devenu tellement facile qu'il n'y a pratiquement plus aucun obstacle à son utilisation", déplore-t-il.
Les conséquences économiques sont déjà considérables. Au Royaume-Uni, la fraude aurait coûté 9,4 milliards de livres sterling aux consommateurs au cours des neuf mois précédant novembre 2025. Les entreprises ne sont pas épargnées, comme en témoigne le cas d'un cadre financier d'une multinationale à Singapour ayant versé près de 500.000 dollars après une visioconférence qu'il croyait authentique avec la direction de son entreprise.
Un exemple concret : le recrutement par deepfake
Début janvier, Jason Rebholz, directeur général d'Evoke, une entreprise spécialisée dans la sécurité de l'IA, a vécu une expérience édifiante. Après avoir publié une offre d'emploi sur LinkedIn, un profil crédible mais inconnu de son réseau lui a recommandé un candidat au CV solide et au parcours impressionnant. Bien que certains détails aient intrigué Jason Rebholz - les mails atterrissant directement dans les spams, des anomalies dans le CV - il a décidé de poursuivre le processus.
L'entretien en visioconférence s'est révélé plus qu'étrange : "L'arrière-plan était extrêmement artificiel. Il paraissait vraiment très faux. Le logiciel avait beaucoup de mal à gérer les contours du personnage. On avait l'impression que des parties de son corps apparaissaient et disparaissaient... Et quand je regardais son visage, les contours étaient très flous", raconte-t-il. Après vérification auprès d'une entreprise spécialisée, le verdict est tombé : le candidat était un deepfake vidéo généré par intelligence artificielle.
Une menace grandissante pour la confiance numérique
Le principal danger réside dans l'amélioration constante de ces technologies. Fred Heiding avertit : "Le pire est à venir." La technologie de clonage vocal deepfake est déjà excellente, permettant aux escrocs d'usurper facilement l'identité, par exemple, d'un petit-enfant en détresse au téléphone. Les vidéos deepfake, quant à elles, continuent de s'améliorer rapidement.
Les conséquences de ces arnaques peuvent être dramatiques sur plusieurs plans :
- Le recrutement et les processus de sélection
- Les élections et la démocratie
- La confiance dans les institutions numériques
- La société dans son ensemble
Fred Heiding déplore : "Le principal problème réside dans le manque total de confiance envers les institutions numériques, et plus généralement envers les institutions et les documents numériques." À mesure que les deepfakes se généralisent, c'est la confiance dans les preuves numériques elles-mêmes qui s'effrite.
Des initiatives pour contrer la menace
Face à cette menace bien identifiée, des initiatives émergent pour développer des solutions. Le Royaume-Uni, en collaboration avec Microsoft, des universitaires et des experts, travaille par exemple à l'élaboration d'un "cadre d'évaluation de détection des deepfakes" visant à identifier les lacunes subsistant dans les technologies actuelles de détection.
Jason Rebholz, après son expérience avec le candidat deepfake, conclut de manière alarmante : "Si nous sommes visés par ce genre d'attaque, alors tout le monde peut l'être." Cette affirmation résume parfaitement l'enjeu majeur que représente la démocratisation des technologies de deepfake pour la sécurité numérique mondiale.



