Deepfake viral : un accident de saut à l'élastique généré par IA dépasse 10 millions de vues
Deepfake viral : accident de saut à l'élastique généré par IA

Un contenu choquant qui devient viral sur les réseaux sociaux

Comment atteindre des millions de vues sur la plateforme X ? La recette semble parfois passer par la diffusion de scènes potentiellement choquantes. C'est le cas d'une séquence de quinze secondes devenue virale, montrant un homme en situation de surpoids lors d'un saut à l'élastique qui tourne au drame.

Le déroulement troublant de la séquence

Sur cette vidéo qui a circulé massivement, on voit un individu se jeter dans le vide depuis une plateforme élevée. L'instant critique survient lorsque la corde élastique rompt de manière spectaculaire, provoquant une chute vertigineuse qui se termine au sol dans un impressionnant nuage de poussière. De manière curieuse, certains observateurs ont noté que la forme du tremplin au sol évoquait étrangement le logo de l'intelligence artificielle Gemini.

Les réactions contrastées des internautes

Dans les commentaires accompagnant cette publication, les réactions ont été particulièrement divisées. De nombreux utilisateurs ont immédiatement suspecté un deepfake, tandis que d'autres se sont amusés de cette création. Cependant, une partie significative du public a exprimé son désarroi face à ce qui semblait être un véritable drame, et beaucoup se sont interrogés sur l'authenticité des images.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

L'enquête qui révèle la supercherie

Comme l'avait déjà signalé 20 Minutes, les deepfakes mettant en scène des accidents impliquant des personnes obèses constituent un phénomène récurrent sur internet. En procédant à une recherche inversée par image, on découvre de nombreuses occurrences de ce contenu, mais toutes proviennent exclusivement des réseaux sociaux, notamment X, Instagram, Facebook et TikTok.

Les sources suspectes du contenu

Les comptes ayant diffusé cette vidéo sont généralement spécialisés soit dans la création de deepfakes, soit dans la publication de contenus spectaculaires ou humoristiques. Fait significatif : aucun média traditionnel n'a relayé un tel événement, ce qui constitue déjà un premier indice de falsification.

Les incohérences visuelles qui trahissent l'IA

En examinant attentivement la séquence, plusieurs anomalies visuelles suggèrent fortement une génération par intelligence artificielle :

  • La rupture de la corde apparaît peu naturelle, semblant se produire avant que celle-ci n'ait atteint sa tension maximale
  • Le nuage de poussière provoqué par l'impact au sol présente des caractéristiques exagérées et irréalistes
  • Il existe une version alternative de cette séquence où l'homme s'envole littéralement, confirmant la manipulation

La confirmation par les outils de détection

Pour vérifier définitivement l'authenticité de cette vidéo, 20 Minutes l'a soumise à deux détecteurs d'intelligence artificielle spécialisés : Hive et Zhuque. Les résultats sont sans appel :

  1. Le détecteur Hive évalue à 32% la probabilité qu'il s'agisse d'un deepfake
  2. Le détecteur Zhuque, plus catégorique, indique 76% de chances que le contenu soit généré par IA

Ces analyses techniques viennent confirmer ce que les indices visuels laissaient déjà suspecter : cette vidéo dramatique qui a captivé des millions d'internautes est bien une création artificielle, illustrant la puissance déconcertante des outils de génération de contenu contemporains et leur capacité à tromper les masses sur les réseaux sociaux.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale