L'Europe envisage de réviser le droit d'auteur face à l'IA générative
Europe: révision du droit d'auteur pour l'IA générative

L'Europe se prépare à réviser le droit d'auteur face au défi de l'IA générative

La Commission européenne envisage sérieusement de rouvrir le dossier du droit d'auteur pour faire face aux défis posés par l'intelligence artificielle générative. Laurence Farreng, eurodéputée Renew et rapporteure pour avis sur le texte, a confirmé que des discussions étaient en cours avec la DG Connect, qui étudierait la possibilité de reprendre la directive Copyright de 2019.

Un vote parlementaire révélateur des divisions

Le Parlement européen a pris les devants en adoptant le 10 mars un rapport d'initiative demandant à la Commission de légiférer sans délai. Le résultat est net avec 460 voix pour, 71 contre et 88 abstentions. La coalition pro-résolution réunit le PPE presque au complet, Renew en bloc, les sociaux-démocrates, l'extrême gauche et les Verts.

Mais l'analyse des votes révèle des lignes de fracture instructives. Les souverainistes de l'ECR sont divisés : les délégations italiennes, tchèques et baltes votent pour, tandis que la délégation polonaise vote contre. Le groupe Patriotes de Jordan Bardella opte massivement pour l'abstention, adoptant une posture de retrait plutôt qu'une opposition frontale.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

Parmi les exceptions notables, les Allemands du FDP au sein de Renew votent contre, restant cohérents avec leur ligne libérale pro-industrie numérique. Quelques voix socialistes et vertes s'abstiennent également, probablement insatisfaites de certains équilibres du texte.

Les deux piliers du rapport Voss

Le rapport porté par l'eurodéputé PPE Axel Voss articule sa réponse autour de deux piliers fondamentaux. Le premier concerne la traçabilité numérique du droit d'auteur : les titulaires de droits pourraient signaler leurs œuvres dans des formats standardisés, gérés par l'Euipo, qui jouerait le rôle de tiers de confiance. Les développeurs d'IA auraient l'obligation de respecter ces signaux d'exclusion.

Parallèlement, le rapport recommande le filigrane numérique et le marquage cryptographique comme outils techniques complémentaires de traçabilité. L'objectif est clair : permettre à chaque modèle de savoir immédiatement ce qu'il peut crawler librement et ce qui nécessite une licence, sans que la conformité ne devienne un obstacle à l'innovation.

Le second pilier est la mise en œuvre effective des droits et la transparence. Concrètement, toute entreprise d'IA proposant ses services en Europe devrait tenir un registre précis de chaque œuvre utilisée, que ce soit pour construire le modèle ou lors de son fonctionnement quotidien.

L'idée est révolutionnaire : ce n'est plus à l'auteur de prouver qu'on lui a volé son œuvre, mais au développeur d'IA de prouver qu'il ne l'a pas utilisée. Les juristes parlent d'une « présomption réfragable », avec les frais de procédure à la charge du fournisseur d'IA.

Le précédent de l'AI Act et le lobbying intense

Ce n'est pas la première fois que l'Europe tente de poser des règles dans ce domaine. Lors de la négociation de l'AI Act adopté en 2024, le Parlement avait déjà tenté d'imposer des obligations de transparence sur les données d'entraînement. Les acteurs du numérique avaient alors déployé un lobbying massif pour « vider de leur sens » ces obligations, comme le reconnaît Laurence Farreng.

Résultat : l'article 53 du règlement impose bien aux fournisseurs de modèles à usage général de publier un résumé « suffisamment détaillé » des contenus utilisés, mais sans que personne ne sache ce que cette expression vague signifie concrètement. Le modèle de résumé publié par la Commission européenne en juillet 2025 a confirmé l'ambiguïté.

En réalité, la Commission a suivi l'une des recommandations du rapport Draghi : puisque l'Europe est en retard sur l'IA, inutile d'ajouter de nouvelles contraintes dont les IA hors UE se passent totalement. Le secteur créatif a le sentiment d'avoir été floué, et il n'a pas tout à fait tort.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale

Deux justices, deux logiques opposées

Pendant que Bruxelles songe à légiférer, les tribunaux tranchent dans des sens opposés. Le 24 juin 2025, le juge fédéral américain William Alsup a rendu une décision favorable à Anthropic dans l'affaire « Bartz c. Anthropic », estimant que le processus d'entraînement des LLM relevait du fair use.

À Munich, la logique est inverse. Le 11 novembre 2025, le tribunal régional a condamné OpenAI dans l'affaire « Gema c. OpenAI ». Les juges ont conclu que ChatGPT, en restituant des paroles de chansons presque mot pour mot, les avait nécessairement mémorisées et donc copiées illégalement.

OpenAI a annoncé faire appel, et l'affaire pourrait remonter jusqu'à la Cour de justice de l'Union européenne, un processus qui prendra probablement des années.

L'étude de Stanford : des preuves techniques accablantes

Une étude publiée en janvier 2026 par des chercheurs de Stanford apporte une démonstration technique embarrassante sur la question de la mémorisation. En soumettant aux quatre modèles de production les plus puissants du marché une procédure en deux phases, les chercheurs ont réussi à extraire des livres entiers.

Claude 3.7 Sonnet a reproduit Harry Potter à l'école des sorciers à 95,8% et 1984 à 95,5% après contournement de ses garde-fous. Gemini 2.5 Pro et Grok 3 ont fait encore moins bien sur le plan de la résistance, restituant respectivement 76,8% et 70,3% du même Harry Potter sans qu'aucun jailbreak ne soit nécessaire.

Les chercheurs prennent soin de ne pas jouer aux juristes, mais leur conclusion technique est sans appel : ces modèles ont bien mémorisé ces œuvres entières, et cette mémorisation peut être extraite. Cette étude vient combler un vide probatoire important dans les affaires judiciaires et donne une base empirique solide aux ambitions du rapport Voss.