L'ultimatum du Pentagone à Anthropic concernant son intelligence artificielle Claude
La tension latente depuis plusieurs semaines entre la société Anthropic et l'administration américaine a franchi un nouveau palier ce mardi 24 février. À l'issue d'une rencontre cruciale entre Dario Amodei, PDG d'Anthropic, et Pete Hegseth, secrétaire à la Défense des États-Unis, ce dernier a posé un ultimatum ferme : la firme dispose jusqu'à vendredi pour se conformer aux exigences du Pentagone.
Les restrictions contestées par le département de la Défense
Le cœur du conflit réside dans les limitations qu'Anthropic souhaite maintenir concernant l'utilisation de son intelligence artificielle Claude par les forces armées. La société entend explicitement exclure deux domaines d'application militaire : la surveillance de masse des populations d'une part, et le développement d'armes autonomes létales d'autre part.
Ces réserves éthiques sont jugées inacceptables par Pete Hegseth, qui menace de mesures radicales en cas de désaccord. Le ministre américain envisage notamment l'annulation pure et simple du contrat signé avec Anthropic à l'été 2025, pour une valeur substantielle de 200 millions de dollars.
La menace du Defense Production Act
Une option plus extrême est également sur la table : le recours au Defense Production Act, une loi datant de 1950, promulguée durant la guerre de Corée. Ce texte législatif autorise le gouvernement fédéral à prendre le contrôle d'entreprises privées au nom de la sécurité nationale.
Bien que cette loi ait été utilisée pendant la pandémie de Covid-19, son application dans ce contexte spécifique soulève des questions juridiques importantes. Jerry McGinn, directeur du Centre d'études stratégiques et internationales pour les questions relatives à la base industrielle, a déclaré au Washington Post : "Je ne suis pas sûr que cet aspect de la DPA ait jamais été utilisé de cette manière." Des juristes estiment que cette utilisation manquerait de bases légales solides.
Un conflit idéologique profond
Dans un paysage technologique américain largement aligné sur les positions de Donald Trump, avec des figures comme Elon Musk (xAI) ou Sam Altman (OpenAI), Anthropic se distingue par son approche singulière. Fondée en 2021 par d'anciens membres d'OpenAI, l'entreprise défend une vision résolument humaniste de l'intelligence artificielle.
Les divergences avec le Pentagone se sont progressivement accentuées. En septembre dernier, Pete Hegseth publiait un mémo intitulé "Fini l'idéalisme utopique, place au réalisme froid", plaidant pour la suppression des "contraintes juridiques pouvant limiter des usages militaires légaux".
En réponse, Dario Amodei a publié le 26 janvier un essai, "The Adolescence of Technology" (non traduit), dans lequel il défend la nécessité d'établir des limites strictes à l'usage gouvernemental de l'IA. Il assimile explicitement "la surveillance intérieure", "la propagande de masse" et "les armes autonomes" à de possibles "crimes contre l'humanité".
Positionnement politique et conséquences commerciales
Le positionnement d'Amodei dépasse le cadre purement technologique. Durant la dernière campagne présidentielle, il avait qualifié Donald Trump de "seigneur de guerre féodal" sur Facebook, appelant ouvertement à voter pour Kamala Harris. Cette prise de position politique contraste fortement avec l'alignement de nombreux acteurs tech sur l'ancien président.
L'attitude d'Anthropic irrite d'autant plus le Pentagone que Claude représente actuellement la seule intelligence artificielle habilitée pour les opérations classifiées du département de la Défense. Cette position privilégiée pourrait cependant être remise en cause, car selon le Wall Street Journal, xAI d'Elon Musk serait sur le point d'obtenir une habilitation similaire pour son outil controversé Grok.
Malgré ces tensions, la position éthique ferme de Dario Amodei n'a pas nui au développement commercial de sa société. Bien au contraire : la valorisation d'Anthropic atteint désormais 350 milliards de dollars, avec une introduction en Bourse prévue courant 2026. Cette situation paradoxale montre que les principes éthiques peuvent coexister avec le succès économique dans le secteur de l'intelligence artificielle.



