L'UE enterre le scan de masse des messages privés, un vide juridique dénoncé
Fin du scan de masse des messages privés dans l'UE

L'Europe met fin au scan généralisé des conversations privées

Depuis le 4 avril 2024, les plateformes numériques ont perdu le droit de procéder à un examen général des messages privés de leurs utilisateurs européens à la recherche de contenus pédopornographiques. Cette décision historique, issue d'un vote extrêmement serré au Parlement européen, a provoqué un tollé dans les chancelleries et parmi les associations de protection de l'enfance. De nombreux acteurs dénoncent un « vide juridique » dangereux qui, selon eux, laisserait les pédophiles « tranquilles pour quelque temps ».

Chat Control 1.0 : une dérogation temporaire qui prend fin

Ce qu'on appelle Chat Control 1.0 correspondait à une dérogation temporaire à la directive ePrivacy, en vigueur depuis 2021. Ce dispositif exceptionnel permettait à des entreprises comme Meta, Google ou Microsoft de scanner volontairement l'ensemble des messages privés de leurs utilisateurs européens pour y détecter du matériel pédocriminel. Aucune ordonnance judiciaire n'était nécessaire, ni aucune suspicion légitime préalable. Le régime offrait ainsi un droit de regard sur la totalité des messages, photos et vidéos échangés par 450 millions d'Européens, tous traités par défaut comme des suspects potentiels.

Ce régime d'exception a expiré le 4 avril 2024, faute de prolongation. Le Parlement européen en avait décidé par 307 voix contre 306, un seul bulletin faisant la différence et provoquant la colère des pays les plus favorables au contrôle numérique, notamment la France et l'Espagne. La question cruciale qui se pose désormais est la suivante : que se passe-t-il si une infraction est détectée à partir d'un scan désormais illégal ? « Le Conseil planche sur cette question juridique », assure-t-on à Bruxelles.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

Un débat passionné entre protection des enfants et respect des libertés

Pour comprendre ce qui s'est joué, il faut revenir aux débats parlementaires des 11 et 26 mars. Le titre choisi pour la séance du 11 mars donnait d'emblée le ton : « Pédophilie en ligne : Protégeons les enfants, pas les agresseurs. » Au nom du Parti populaire européen (PPE), Jeroen Lenaers a sonné l'alarme : « L'Europe est confrontée à une crise des abus sexuels sur enfants qui s'aggrave rapidement. Les signalements de manipulation en ligne explosent, nous constatons une explosion de contenus pédopornographiques générés par l'IA. Derrière chaque image se cache une véritable victime. »

Mais ses adversaires ont dénoncé une présentation délibérément trompeuse des enjeux. L'eurodéputée Irena Joveva, au nom du groupe Renew, a rétorqué : « Les photos privées de nos enfants en maillot de bain continueront d'être examinées par les employés de Facebook, et les photos intimes de couples pourraient soudainement ne plus être privées. Surtout, cela ouvre la voie à des possibilités de surveillance inimaginables – le fantasme des régimes répressifs. »

Les chiffres révélateurs derrière le débat

Les statistiques officielles apportent un éclairage crucial sur cette question complexe. Selon le rapport de la Commission du 27 novembre 2025, pour la détection des contenus pédopornographiques déjà connus – via le hash-matching – les outils fonctionnent relativement bien : le taux d'erreur de PhotoDNA est estimé à 1 pour 50 milliards. En revanche, pour la détection des contenus inconnus et de la cyberprédation, les chiffres se dégradent considérablement, avec des plateformes comme Yubo affichant 20 % d'erreur en 2023.

Les données allemandes du BKA (Office fédéral de police criminelle) révèlent deux réalités souvent occultées dans le débat. Premièrement, le phénomène des Selbstfilmende – les mineurs qui se filment eux-mêmes et s'échangent des images – constitue une part significative des infractions, sans impliquer nécessairement de réseau criminel adulte. Deuxièmement, dans plus de la moitié des cas d'abus sexuels sur mineurs, il existait une relation préalable entre la victime et le suspect, remettant en cause l'image du prédateur anonyme opérant exclusivement via des messageries chiffrées.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale

Meta, acteur unique et problématique

Un chiffre particulièrement révélateur émerge du rapport de la Commission : 99 % de l'ensemble des signalements transmis aux polices européennes provenaient d'un seul acteur, Meta. Cette situation pose un problème démocratique fondamental : l'Europe avait confié sa lutte contre la pédocriminalité à une entreprise américaine privée, sans contrôle démocratique effectif, sans mandat judiciaire, sans garantie d'indépendance. C'est précisément ce paradoxe que le Parlement a refusé de cautionner davantage.

En 2024, le nombre de signalements concernant l'UE a chuté de 30 %, une baisse que la Commission attribue elle-même à la généralisation du chiffrement de bout en bout, qui rend le scan inopérant sur les messageries concernées. La technologie semble ainsi dépasser le dispositif juridique que le Parlement vient d'enterrer.

L'arsenal répressif reste partiellement opérationnel

Le vide juridique est réel sur un point précis : les plateformes n'ont plus de base légale pour scanner les messages non chiffrés de manière générale. Cependant, l'arsenal répressif ne s'est pas évaporé pour autant. La surveillance ciblée des communications, fondée sur une suspicion concrète et autorisée par un juge, reste parfaitement légale. Les plateformes peuvent toujours analyser les contenus publics, et les mécanismes de signalement des utilisateurs demeurent opérationnels.

Le hash-matching sur contenus déjà répertoriés – celui que la rapporteure Birgit Sippel elle-même défend – reste disponible pour les environnements d'hébergement. Et le règlement sur les services numériques (DSA) oblige les plateformes à agir rapidement sur les contenus manifestement illicites, dont le matériel pédopornographique constitue l'exemple le plus évident. Ce qui disparaît, c'est donc le filet jeté sur l'ensemble de la population. Ce qui reste, ce sont les outils ciblés que les défenseurs des droits fondamentaux réclamaient depuis le début.

CSAR : le véritable combat à venir

L'histoire est loin d'être terminée. Le règlement permanent – le CSAR (Child Sexual Abuse Regulation) – est toujours en négociation. Les 3e et 4e trilogues sont programmés les 4 mai et 29 juin 2026, avec un accord visé pour juillet 2026. Au Conseil, les lignes de fracture sont bien connues : la France, l'Espagne et le Danemark poussaient pour un scan large, tandis que l'Allemagne, les Pays-Bas, l'Autriche et la Pologne s'y opposaient.

Le compromis au sein du Conseil a finalement renoncé au scan obligatoire des messageries chiffrées, mais impose une vérification d'âge pour y accéder – ce qui revient, selon ses opposants, à tuer l'anonymat sans toucher formellement au chiffrement. La question fondamentale demeure : l'Europe est-elle capable de se doter d'un dispositif de lutte contre la pédocriminalité en ligne à la fois efficace et compatible avec l'État de droit ? Cinq ans de scan de masse n'ont pas apporté de réponse définitive, et le débat recommence dans les prochaines semaines avec les mêmes acteurs, les mêmes lignes de fracture, et une pression du calendrier qui commence déjà à se faire sentir.