Meta et YouTube condamnés pour addiction des jeunes : un tournant juridique historique
Ce mercredi, un tribunal civil de Los Angeles a accordé 3 millions de dollars de dommages et intérêts à une jeune Californienne devenue accro aux réseaux sociaux durant son adolescence. La répartition de la responsabilité est claire : 70% incombent à Meta, propriétaire de Facebook et Instagram, tandis que YouTube, détenu par Google, doit assumer les 30% restants.
Un précédent judiciaire majeur au Nouveau-Mexique
Cette décision californienne fait directement écho à un jugement prononcé mardi 24 mars à Santa Fe, où un jury civil a déclaré Meta responsable d'avoir exposé des mineurs à des contenus inappropriés et à des prédateurs sexuels sur ses plateformes. Le géant d'Internet a été condamné à verser la somme colossale de 375 millions de dollars de dommages et intérêts.
Le procureur de l'État du Nouveau-Mexique, Raul Torrez, à l'origine de la procédure lancée fin 2023, a immédiatement qualifié la décision d'historique. Dans un communiqué officiel, il a déclaré : « Le Nouveau-Mexique est fier d'être le premier État à demander des comptes aux opérateurs de réseaux sociaux pour avoir trompé des parents, permis l'exploitation de mineurs et mis en danger des enfants. » Sans surprise, Meta a annoncé son intention de faire appel de cette condamnation.
Le contournement de la section 230, un bouclier vieux de trente ans
Pour comprendre la portée révolutionnaire de ces décisions, il faut remonter à 1996 et à un texte législatif américain méconnu du grand public mais omniprésent : la section 230 du Communications Decency Act. Cette disposition fondamentale exonère traditionnellement les plateformes numériques de toute responsabilité concernant les contenus publiés par leurs utilisateurs.
Christophe Bigot, avocat spécialiste du droit de l'information, d'Internet et des réseaux sociaux, explique : « C'était un principe qui partait de l'idée que la plateforme n'influençait pas les contenus montrés à l'intérieur de celle-ci. Si en 1996, on pouvait considérer que cela était à peu près vrai, aujourd'hui, c'est une autre histoire complètement différente. »
Attaquer l'algorithme plutôt que le contenu
Ce qui a radicalement changé dans les procès de Santa Fe et de Los Angeles, c'est la stratégie juridique employée. Les plaignants n'ont pas attaqué les contenus spécifiques hébergés par Meta, mais plutôt la conception même de la plateforme : ses algorithmes de recommandation, son architecture conçue pour maximiser le temps passé en ligne, y compris chez les plus jeunes utilisateurs, ainsi que l'absence criante de prévention concernant les dangers encourus.
Cette approche reprend une stratégie déjà éprouvée par l'industrie du tabac plusieurs décennies auparavant. Me Bigot précise : « Dans les faits, les contenus montrés à l'internaute sont aujourd'hui essentiellement déterminés par des algorithmes sophistiqués. Le rôle “passif” de l'hébergeur, qui était à la base de la limitation de responsabilité, dans les faits, n'existe plus du tout. »
C'est précisément ce glissement stratégique qui a permis de contourner le bouclier protecteur de la section 230. Linda Singer, avocate de l'État du Nouveau-Mexique, a rappelé au jury lors de sa plaidoirie : « Au cours d'une décennie, Meta a échoué encore et encore à agir honnêtement et de manière transparente. Il n'a pas su protéger les jeunes de notre État. » Elle a insisté sur le fait que l'entreprise connaissait parfaitement les risques pour ses utilisateurs les plus vulnérables.
Le même angle mort juridique existe en France
Bien que ces décisions soient américaines, le problème ne se limite pas aux frontières des États-Unis. En France, le cadre juridique applicable est la loi LCEN (loi pour la confiance dans l'économie numérique), qui date de 2004 et s'est calquée sur le même modèle que la section 230 américaine. La logique est identique : un hébergeur n'est responsable que si un contenu illicite lui est signalé et qu'il ne le retire pas rapidement, mais pas avant cette notification.
Christophe Bigot rappelle : « C'était un régime créé à une époque où les réseaux sociaux étaient beaucoup moins gouvernés par des algorithmes puissants. En 2004, Facebook venait tout juste de voir le jour et TikTok n'existait pas encore. »
L'Europe a depuis tenté une mise à jour réglementaire avec le Digital Services Act (DSA), ou « règlement sur les services numériques », en vigueur depuis 2023 pour lutter contre la propagation de contenus illicites en ligne. Mais là encore, les plateformes ont pesé de tout leur poids considérable dans les négociations. « Ils ont fait un lobbying avec des sommes délirantes », lâche l'avocat. Le résultat est mitigé : le DSA maintient le principe de responsabilité allégée dans son article 6, et précise même, à l'article 8, que « les fournisseurs de services intermédiaires ne sont soumis à aucune obligation de surveiller les informations qu'ils transmettent ou stockent. »
L'ARCOM dispose certes de nouvelles prérogatives depuis l'entrée en vigueur du DSA, et « des amendes qui peuvent être colossales pour les très grandes plateformes qui ne respectent pas leurs obligations », note Christophe Bigot. Mais il ajoute avec prudence : « Tout ça se met progressivement en place. Je ne sais pas exactement comment la Commission européenne et l'ARCOM vont gérer ces nouvelles régulations complexes. »
Un combat gagné, mais pas encore la guerre
Aux États-Unis, des milliers de plaintes similaires attendent leur tour dans les tribunaux, suspendues à l'issue de ces premiers verdicts historiques. La décision du Nouveau-Mexique, comme celle de Los Angeles, est observée avec attention comme un test déterminant pour toutes les procédures futures.
Christophe Bigot résume : « C'est probablement une nouvelle génération de décisions judiciaires qui commence à prendre en considération la réalité du rôle joué par les plateformes, non plus d'une “responsabilité allégée” qui découlerait d'un rôle passif de ces dernières. »
Une fois ce rôle actif reconnu, une question fondamentale émerge : si Meta peut techniquement agir sur ses algorithmes pour ne pas exposer des mineurs à des contenus pornographiques ou dangereux, pourquoi ne l'a-t-il pas fait plus tôt ? Mais une difficulté supplémentaire surgit immédiatement. « Ces algorithmes sont un secret industriel très bien gardé », souligne l'avocat. « Ça reste extrêmement compliqué juridiquement de démontrer qu'il y a une négligence volontaire de la part de ces entreprises. »
Le dossier du Nouveau-Mexique aura une seconde phase en mai prochain, pour déterminer si la plateforme s'est rendue coupable de « trouble à l'ordre public », ce qui pourrait la contraindre à financer des programmes d'intérêt général dédiés à la protection des mineurs. Comme le dirait Christophe Bigot, la messe est loin d'être dite dans cette bataille juridique d'ampleur historique.



