Anthropic face au Pentagone : la justice américaine maintient les restrictions sur l'IA
Anthropic : la justice maintient les restrictions du Pentagone

Un revers judiciaire pour Anthropic face au Pentagone

Une cour fédérale de Washington a refusé mercredi de suspendre les restrictions imposées par le Pentagone à l'encontre d'Anthropic, marquant un revers partiel pour la pépite californienne de l'intelligence artificielle. Cette décision maintient en vigueur une mesure qui contraint les sous-traitants du ministère de la Défense américain à certifier qu'ils n'utilisent pas les technologies d'Anthropic, créateur du chatbot Claude.

Une procédure accélérée pour trancher le litige

Les juges fédéraux ont toutefois reconnu le caractère sensible de cette affaire, qui mêle des enjeux militaires, éthiques et économiques considérables. Ils ont ordonné une procédure accélérée, convoquant les deux parties à plaider dès le 19 mai prochain. « Nous sommes reconnaissants que la cour ait reconnu la nécessité de résoudre rapidement ces questions », a déclaré Anthropic dans un communiqué.

De son côté, le gouvernement américain a salué cette décision comme une « victoire retentissante », par la voix de Todd Blanche, numéro deux du ministère de la Justice. Sur le réseau social X, il a affirmé que les décisions éthiques « appartiennent au commandant en chef » et non « à une entreprise technologique », ajoutant que l'armée américaine a besoin d'un accès total aux modèles d'Anthropic si cette technologie est intégrée dans des systèmes sensibles.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

Le contexte réglementaire et les précédents judiciaires

La mesure contestée, annoncée le 27 février dernier, désigne Anthropic comme un « risque pour la chaîne d'approvisionnement » du Pentagone. Cette décision fait suite au refus de l'entreprise de voir ses outils d'intelligence artificielle utilisés pour la surveillance de masse des citoyens américains et pour le développement d'armes totalement autonomes.

L'effectivité de cette sanction, qui relève du code des achats publics fédéraux, fait cependant débat parmi les juristes. Certains estiment que les textes réglementaires nécessaires à sa mise en œuvre font encore défaut, créant une incertitude juridique importante.

Dans un recours parallèle, Anthropic avait obtenu fin mars une première victoire judiciaire à San Francisco contre une sanction similaire prise sous l'autorité du code militaire. Une juge californienne avait alors suspendu la directive du ministre de la Défense Pete Hegseth qui désignait Anthropic comme un risque pour les opérations classifiées du Pentagone.

Les arguments de la cour et les conséquences économiques

Dans leur décision de mercredi, les juges de Washington ont estimé que la balance des intérêts penchait en faveur du gouvernement américain. Ils ont reconnu qu'Anthropic subissait « vraisemblablement un préjudice irréparable », mais ont souligné que celui-ci était « principalement financier ». En revanche, l'enjeu pour le gouvernement touche directement à la sécurité des opérations du Pentagone « dans le cadre d'un conflit militaire actif ».

La cour a également suggéré qu'Anthropic pourrait tirer certains bénéfices de cette situation conflictuelle. Les juges ont cité des déclarations de Dario Amodei, le PDG d'Anthropic, à ses employés, ainsi qu'un article du média Digiday estimant que l'opposition de l'entreprise au Pentagone « pourrait s'avérer être le meilleur investissement marketing de la Silicon Valley depuis des années ».

Une croissance économique malgré les tensions

Malgré ces tensions réglementaires, Anthropic a annoncé lundi une croissance « exponentielle » de ses revenus, multipliés par trois en un seul trimestre. L'entreprise revendique désormais 30 milliards de dollars de revenus annualisés, dépassant pour la première fois les performances affichées par son concurrent OpenAI.

Cette croissance spectaculaire intervient dans un contexte où OpenAI a annoncé avoir signé un contrat avec le Pentagone pour prendre le relais d'Anthropic. Le gouvernement américain a fait appel de la décision favorable à Anthropic rendue en Californie, mais l'audience n'aura pas lieu avant juin au plus tôt, prolongeant l'incertitude juridique.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale

Le Pentagone a informé Anthropic qu'il continuerait d'utiliser ses modèles d'intelligence artificielle, les seuls actuellement autorisés pour les informations classifiées de l'armée américaine, jusqu'au 3 septembre 2026 au plus tard. Cette période de transition laisse entrevoir des négociations complexes entre les parties avant une résolution définitive de ce litige technologique et éthique majeur.