La guerre en Iran noyée sous une vague de désinformation numérique
Depuis le 28 février dernier, date des premières frappes israélo-américaines sur Téhéran, les réseaux sociaux sont submergés par une multitude de contenus falsifiés concernant le conflit en Iran. Ces fakes, souvent des images détournées de leur contexte original ou générées par intelligence artificielle, prolifèrent à un rythme alarmant, semant la confusion et manipulant l'opinion publique.
Des exemples frappants de manipulation visuelle
Parmi les exemples les plus marquants, on retrouve des représentations choquantes telles que le corps de l'ancien Guide suprême Ali Khamenei enseveli sous des décombres, des missiles iraniens franchissant allègrement le dôme de fer israélien, ou encore un porte-avions américain en train de sombrer. Cette liste, déjà longue, ne cesse de s'allonger au fil des jours, illustrant l'ampleur du phénomène.
Les soldats américains en pleurs : une création algorithmique
Des vidéos générées par intelligence artificielle, largement partagées par des comptes pro-Téhéran, mettent en scène des soldats américains larmoyants exprimant leur désir de quitter le front et de rentrer chez eux. Depuis le début de la guerre au Moyen-Orient, sept soldats américains ont effectivement perdu la vie dans des bombardements, mais ces images sont purement fictives.
Dans l'une de ces vidéos, visionnée près d'un demi-million de fois, un soldat déclare face caméra : « Ma femme est malade, elle est à l'hôpital en ce moment, je voudrais être à ses côtés mais je suis ici pour protéger cette frontière. » Une autre montre une femme soldat en pleurs avouant : « Mes parents me manquent », avant d'ajouter : « suivez ma page, ça me donne du soutien. »
FAKE OFF : comment détecter ces manipulations
En réalité, ces images ont été intégralement générées par intelligence artificielle. Un indice révélateur dans la seconde vidéo est la phrase prononcée par la soldate, typique des influenceurs en ligne, mais peu crédible dans un contexte militaire. Un autre élément trahit l'usage de l'IA : l'emplacement incorrect du patch « US Army » sur l'uniforme. Normalement situé sur le côté gauche, il apparaît à droite dans la vidéo, une erreur fréquente dans les créations algorithmiques.
Pour la première vidéo, une simple recherche inversée suffit à identifier son origine : un compte TikTok spécialisé dans la production de contenus « faits grâce à l'IA », présentés comme du divertissement. Ce compte diffuse régulièrement des scènes similaires mettant en scène des soldats américains en larmes, avec un discours répétitif et un drapeau américain souvent en arrière-plan.
Une pratique courante dans les conflits modernes
Une autre vidéo, partagée par un compte pro-iranien, montre un soldat américain pleurant la mort d'un camarade, avec en arrière-plan des soldats portant un cercueil drapé du drapeau américain. Des déformations visuelles, comme celles des ailes d'un avion en arrière-plan, confirment encore une fois l'utilisation de l'intelligence artificielle.
Plus largement, la mise en scène de soldats en pleurs exprimant leur peur ou leur désir de fuir le front est une tactique récurrente en période de conflit. On a observé ce type de contenus en novembre dernier dans le contexte de la guerre en Ukraine, où ils faisaient partie d'une campagne de désinformation russe. À peu près à la même période, des techniques similaires ont été employées lors de la guerre au Soudan, ciblant cette fois des femmes et des enfants victimes du conflit.
Cette prolifération de fakes souligne l'urgence de renforcer l'éducation aux médias et de développer des outils de vérification robustes pour lutter contre la désinformation, qui devient un enjeu crucial dans les guerres contemporaines.



