Les faux détecteurs d'IA : une escroquerie qui sape la confiance
Alors que les fausses informations générées par l'intelligence artificielle prolifèrent sur les réseaux sociaux, de prétendus outils de détection ajoutent une couche supplémentaire de confusion. Des entreprises se sont spécialisées dans la détection de textes ou d'images réalisés par des IA, allant jusqu'à proposer, moyennant finances, d'« humaniser » les contenus analysés. Cependant, une enquête approfondie de l'Agence France-Presse révèle les arnaques qui se cachent derrière ces faux détecteurs de tromperie, qui aboutissent paradoxalement à discréditer des contenus parfaitement authentiques.
Des technologies douteuses aux résultats erronés
Des journalistes spécialisés dans l'investigation numérique ont identifié trois détecteurs censés évaluer dans quelle mesure un texte a été généré par l'IA. Testés dans quatre langues différentes – néerlandais, grec, hongrois et anglais – ces outils ont systématiquement conclu, à tort, que les textes étaient l'œuvre de l'intelligence artificielle. L'un d'eux, JustDone AI, a analysé un article sur la guerre au Moyen-Orient rédigé par des journalistes humains et affirmé qu'il contenait « 88 % de contenu IA ». Le site a ensuite proposé de remodeler le texte pour effacer ces prétendues traces de fabrication numérique.
« Votre texte IA est en train d'être humanisé », annonce le site avant de rediriger vers une page garantissant un « 100 % texte original », accessible uniquement après avoir déboursé jusqu'à 9,99 dollars. Deux autres outils – TextGuard et Refinely – ont produit des résultats tout aussi erronés et cherché à en tirer profit financièrement.
Des classiques littéraires accusés à tort
L'enquête a testé ces outils avec plusieurs textes façonnés par la main de l'homme, y compris des extraits d'un classique hongrois datant de 1916. Tous ont récolté l'étiquette « généré par IA », démontrant l'inefficacité flagrante de ces systèmes. Fait troublant : JustDone et Refinely semblaient fonctionner même sans connexion internet, suggérant que leurs résultats pourraient découler d'un simple script plutôt que d'une véritable analyse technique sophistiquée.
Debora Weber-Wulff, universitaire allemande ayant mené des recherches approfondies sur les outils de détection, est catégorique : « Ce ne sont pas des détecteurs d'IA, mais des arnaques visant à vendre un outil d'humanisation ». Pour donner une apparence plus humaine aux textes, ces produits « génèrent souvent ce que nous appelons des phrases torturées », c'est-à-dire des alternatives absurdes et maladroites.
Une utilisation malveillante pour discréditer
Ces outils douteux peuvent facilement être détournés à des fins malveillantes pour discréditer des contenus authentiques et ternir des réputations. En Hongrie, des influenceurs pro-gouvernement ont affirmé en début d'année qu'un document produit par l'opposition pendant la campagne électorale avait été entièrement créé par l'IA. Pour étayer leurs allégations, ils ont diffusé sur les réseaux sociaux des captures d'écran montrant les conclusions de JustDone.
Les entreprises derrière ces outils cherchent notamment à séduire des étudiants ou des chercheurs qui souhaiteraient dissimuler ou repérer le recours à l'IA. Deux d'entre elles affirment que leurs utilisateurs sont issus d'universités prestigieuses comme Cornell, dans le nord-est des États-Unis. Cependant, l'Université Cornell a formellement démenti à l'AFP entretenir « aucune relation formelle avec des entreprises fournissant des détecteurs d'IA », estimant qu'il était « malheureusement peu probable » que ces outils « apportent une solution viable » au problème du recours abusif à cette technologie.
Les réponses des entreprises mises en cause
Contactées par l'AFP, les trois sites ont fourni des réponses évasives. TextGuard a déclaré : « Notre système fonctionne à l'aide de modèles d'IA modernes, et les résultats qu'il fournit sont considérés comme fiables dans le cadre de notre technologie », avant d'ajouter : « Nous ne pouvons ni garantir les résultats ni les comparer à ceux d'autres systèmes ». JustDone a quant à lui reconnu qu'« aucun détecteur d'IA ne pouvait garantir une précision à 100 % », admettant que sa version gratuite « pouvait fournir des résultats moins précis » en raison de « la forte demande et de l'utilisation d'un modèle allégé conçu pour un accès rapide ».
Les vrais outils de détection : complémentaires mais imparfaits
Il arrive aux fact-checkers, y compris ceux de l'AFP, d'utiliser des outils de détection à base d'IA, principalement pour vérifier si une image ou un son ont été manipulés. Ces instruments légitimes ne sont pas toujours fiables à 100 % et sont systématiquement utilisés en complément d'autres méthodes d'investigation traditionnelles. La différence cruciale réside dans leur transparence et leur absence de prétentions commerciales trompeuses.
Les chercheurs soulignent que les technologies douteuses promues par ces faux détecteurs ajoutent une couche dangereuse de confusion dans un paysage médiatique déjà fragilisé par la désinformation. Plutôt que de lutter contre les contenus générés par IA, elles contribuent à saper la confiance dans les informations authentiques et à créer de nouvelles opportunités d'escroquerie.



