L'intelligence artificielle s'invite dans les campagnes municipales
« J'ai un tatouage sur le bras que je ne montre jamais sur les réseaux parce que je n'ai pas envie qu'on l'utilise pour le mettre sur quelqu'un d'autre et dire que c'est moi », confie Éric Fallous, candidat sans étiquette à Trélissac, près de Périgueux. Comme de nombreux autres candidats aux élections municipales, il constate le déploiement croissant de l'intelligence artificielle dans la campagne, modifiant profondément les règles du jeu politique. L'IA n'est plus simplement un outil technique. Elle se transforme désormais en une véritable arme de campagne : capable de manipuler l'opinion, de tromper les électeurs et de salir systématiquement les adversaires.
Un phénomène mécanique et inquiétant
Pour Paul Brounais, fondateur du Lab électoral, une agence spécialisée en communication politique, ce phénomène suit une logique implacable : « Toute nouvelle technologie facilement accessible entraîne des risques de manipulation et de disparition de la sincérité. » Sur le terrain électoral, ces risques ne sont plus théoriques mais bien concrets et observables. Les deepfakes – ces vidéos ou audios fabriqués par intelligence artificielle pour imiter parfaitement une personne – s'invitent de plus en plus dans les campagnes locales.
Mardi 10 mars, à seulement cinq jours du premier tour du scrutin municipal, YouTube a élargi son service anti-deepfake à un groupe pilote composé de responsables gouvernementaux, de journalistes et de candidats politiques. Dans certaines villes françaises, les attaques utilisant ces technologies sont déjà clairement visibles et documentées.
Guéret, théâtre d'une guérilla de l'image
Guéret, dans le département de la Creuse, est ainsi devenue le théâtre d'une véritable « guérilla » de l'image numérique. La maire sortante, Marie-Françoise Fournier, se retrouve au cœur d'une campagne électorale particulièrement agressive. Depuis plusieurs semaines, elle est la cible – ainsi que la plupart de ses adversaires politiques – d'images dégradantes qui circulent anonymement sur les réseaux sociaux et les plateformes numériques. S'agit-il d'un coup bas orchestré par un adversaire politique ou d'une initiative isolée d'un électeur en colère ? Le mystère reste entier à ce jour. Contactée par Le Point, la maire sortante a décliné toute réponse aux questions sur ce sujet sensible.
« Décontextualisation d'images, amplification de hashtags, influenceurs cachés, faux reportages… L'IA n'est que le dernier outil, le plus moderne et le plus sophistiqué », analyse Isabelle Veyrat-Masson, directrice de recherche au CNRS et spécialiste reconnue de communication médiatique. « C'est de la communication agressive dans sa forme la plus pure : inventer des fausses informations pour salir systématiquement l'autre », ajoute-t-elle avec préoccupation.
Des images faciles à produire, difficiles à démentir
L'intelligence artificielle devient également une arme redoutable pour s'attaquer frontalement aux élus en place. L'offensive numérique menée à Strasbourg par Virginie Joron (RN) en est un exemple frappant. Dans une vidéo TikTok largement diffusée, la candidate pointe du doigt le délabrement supposé des rues, fustigeant ainsi violemment la gestion de la maire écologiste Jeanne Barseghian. Mais il existe un problème majeur : ces images n'existent pas dans la réalité. Elles ont été intégralement générées par une intelligence artificielle, créant une réalité alternative trompeuse.
Même logique manipulatrice observée à Paris. « Sarah Knafo montre un “Paris poubelle” généré par IA à côté d'un Paris magnifique qu'elle construirait. Le “Paris poubelle” n'existe pas : ce sont de fausses images créées de toutes pièces », souligne Isabelle Veyrat-Masson. « On utilise désormais l'IA comme une arme politique pour manipuler l'opinion selon son éthique et ses objectifs électoraux. »
Dans ce nouvel écosystème numérique, les images générées par intelligence artificielle – extrêmement faciles à produire et à partager massivement – simplifient les récits politiques, dramatisent les situations et se diffusent à grande échelle avant que leur dimension fictive ne puisse être correctement démentie ou vérifiée.
Une stratégie de ringardisation des adversaires
Pour Paul Brounais, l'objectif derrière ces pratiques est également stratégique : « ringardiser » ses adversaires politiques en les présentant comme dépassés ou incompétents. Il met toutefois en garde contre les dangers de cette approche : « Le risque principal, c'est de vendre trop de rêve aux électeurs. Dans une simple vidéo, on peut transformer les bords de Seine en vingt secondes seulement. Cela peut laisser croire faussement que les projets urbains se réalisent très rapidement, alors qu'en mairie, le temps municipal est traditionnellement long et complexe. L'IA ne doit pas simplifier excessivement la réalité dans l'esprit des citoyens. »
Le délicat encadrement des contenus générés par IA
La question cruciale de l'encadrement des contenus générés par intelligence artificielle divise autant qu'elle inquiète les observateurs et les acteurs politiques. Certains plaident activement pour un encadrement plus strict et contraignant : charte d'utilisation claire, obligation légale de mentionner explicitement les contenus générés par IA… Mais la mise en place concrète de règles efficaces reste extrêmement complexe sur le plan technique et juridique.
« La tendance naturelle des citoyens est d'appeler au contrôle et à la régulation. On peut exiger la mention “IA”, mais ça n'ira probablement pas très loin dans la pratique », prévient Isabelle Veyrat-Masson. Il est en effet difficile, par exemple, de déterminer objectivement à partir de quand exactement une image devient trompeuse ou dégradante. Selon l'experte, le choix se présente de manière binaire : « soit on interdit totalement l'usage des images artificielles pendant une période électorale, soit on se heurte à l'impossibilité pratique de contrôler ce qu'a construit et diffusé Internet. »
Un cadre légal qui se durcit progressivement
Malgré ces obstacles considérables, le cadre légal français s'est récemment durci avec l'adoption de la loi du 21 mai 2024 sur la sécurité et la régulation de l'espace numérique (SREN). Ce texte législatif interdit désormais explicitement de publier une image ou un son généré par IA imitant une personne sans son consentement préalable, à moins que le caractère artificiel ne soit clairement et visiblement indiqué. En cas d'infraction constatée, les sanctions pénales peuvent désormais aller jusqu'à deux ans de prison ferme et plusieurs dizaines de milliers d'euros d'amende.
Pour autant, le cadre légal global reste, aujourd'hui encore, relativement flou et perfectible. « Le contexte réglementaire actuel est assez soft sur ces questions. Il existe bien le Code électoral, mais aucune mention spécifique de l'intelligence artificielle n'est faite à l'intérieur de ce texte », explique Paul Brounais. Les principes généraux – sincérité du scrutin, interdiction du dénigrement – devraient néanmoins s'appliquer à ces nouvelles pratiques. Une chose est certaine : l'intelligence artificielle est désormais entrée définitivement dans l'arène politique française. Et dans les campagnes électorales locales, ses usages les plus agressifs et manipulatoires pourraient bien peser significativement sur l'issue des scrutins à venir.



