Le traitement des violences sur X n’a jamais été aussi opaque. Convoqué mardi 21 avril par la justice française pour s’expliquer sur de potentielles dérives de sa plateforme, Elon Musk a, sans grande surprise, fait faux bond. Depuis son rachat par le milliardaire, le réseau social X (ex-Twitter) a fait face à une salve de critiques sur la prolifération de contenus violents, haineux ou illicites. Mais à mesure que ces dérives se sont installées, elles semblent aussi s’être banalisées. Dans ce contexte, certaines organisations et personnalités politiques attendent beaucoup de l’enquête en cours menée par la Commission européenne.
Un algorithme qui promeut la violence
Pour Chloé Keller, présidente de la Ligue des droits de l'homme, « on ne peut plus se dire qu’on va promouvoir notre contenu sur une plateforme avec un algorithme qui promeut la violence ». Avec le chercheur David Chavalarias, l’association a encouragé les organisations à quitter X, dénonçant une invisibilisation de leurs publications au profit de contenus haineux.
L’association de défense des droits humains a d’ailleurs déposé une plainte contre la plateforme en novembre 2025 pour contestation de crime contre l’humanité et négationnisme. En cause : des propos générés par l’agent conversationnel du réseau social X, soutenant que les chambres à gaz du camp d’extermination nazi d’Auschwitz ont été « conçues pour la désinfection au Zyklon B contre le typhus […] plutôt que pour des exécutions massives ».
Depuis le rachat par Elon Musk, « la mise en avant des contenus violents est très visible », estime Chloé Keller. Elle pointe à la fois un problème de diffusion, via les algorithmes, et de retrait insuffisant. « On ne sait pas comment Grok est entraîné. Les chercheurs n’ont plus accès aux algorithmes, c’est devenu opaque », déplore-t-elle. Autre dérive signalée : la « nudification », ces images générées sans consentement qui portent atteinte à la vie privée, mais difficiles à poursuivre juridiquement sans plainte des victimes. Le phénomène est devenu viral à la fin de l’année 2025.
On touche aux limites du modèle actuel des plateformes
Le député Éric Bothorel (Ensemble pour la République), utilisateur de longue date, a multiplié les signalements auprès de la justice en 2025. « J’observe que des groupes violents utilisent l’outil, qu’il s’agisse de sphères extrémistes ou djihadistes […]. Des comptes qui étaient bannis à une époque réapparaissent. »
Dans un rapport de transparence sur le contrôle des contenus, publié par le réseau social en novembre 2023, on apprenait que seulement 52 personnes étaient chargées de contrôler les contenus en langue française. L’élu se demande « si on n’est pas au bout d’une doctrine qui consiste à invisibiliser les comptes plutôt qu’à traiter le problème à la racine […]. Quand il y a de moins en moins de modérateurs, mais que dans la pièce d’à côté certains contenus illicites continuent d’être promus, on touche aux limites du modèle actuel des plateformes ».
Une enquête de la Commission européenne en cours
Face à ces dérives, la législation européenne, notamment via le Digital Services Act (DSA), est censée encadrer les plateformes. Le 26 janvier 2026, la Commission européenne a alors ouvert une enquête sur les systèmes de recommandation de Grok et de X au titre de son règlement sur les services numériques. Mais « où en est-on ? », se questionne Éric Bothorel.
Le député appelle à un rapport de force plus affirmé avec les grandes plateformes. « La Commission européenne doit être courageuse », lance-t-il. Du courage, puisque Washington a déjà menacé de représailles l’UE et ses pays membres s’ils ne revenaient pas sur leur régulation du secteur numérique. Chloé Keller insiste, « il ne faut pas de nouvelles règles, il faut appliquer celles qui existent ».
Vers une annulation de Grok en Europe ?
Contactée, la Commission européenne rappelle « qu’elle ne peut pas commenter les investigations en cours », tout en précisant être « en contact avec la plateforme afin d’assurer sa conformité avec le Digital Services Act ».
Selon un article de Politico, publié le 12 mars 2026, plusieurs propositions de députés européen convergeraient vers une interdiction dans l’UE des systèmes d’intelligence artificielle capables de générer des deepfakes sexualisés de personnes réelles. Toujours selon Politico, cette interdiction pourrait entrer en vigueur dès cet été après des négociations entre les Etats membres et le Parlement européen.



