Anthropic face au Pentagone : le bras de fer éthique sur l'IA militaire
L'événement était prévisible. Le 28 février, Pete Hegseth, ancien présentateur télévisuel devenu secrétaire au département de la Défense (rebaptisé Department of War par décret présidentiel), a officiellement désigné Anthropic comme « risque pour la chaîne d'approvisionnement » liée à la sécurité nationale. Cette qualification, habituellement réservée aux entreprises considérées comme ennemies, n'avait encore jamais été appliquée à une société américaine.
Une décision présidentielle radicale
La veille de cette annonce, Donald Trump ordonnait à toutes les agences fédérales – Pentagone, Trésor, État, entre autres – de cesser immédiatement d'utiliser la technologie d'Anthropic, avec une période de transition maximale de six mois. Cette directive incluait la résiliation des contrats militaires en cours. Anthropic, maison mère de Claude, le concurrent direct de ChatGPT, impressionne pourtant de plus en plus par ses capacités de rédaction et de programmation avancées.
Les accusations fusent de toutes parts. Pete Hegseth a qualifié Anthropic d'entreprise soumise à des « caprices idéologiques » et l'a accusée de vouloir « forcer la main » à l'armée américaine. Emil Michael, un responsable au Pentagone, a reproché à Dario Amodei, PDG d'Anthropic, d'avoir un « complexe de Dieu ». Donald Trump a même décrit l'entreprise comme « d'extrême gauche et woke », complétant un tableau d'accusations sans précédent.
Un paradoxe apparent
Pourtant, Anthropic est loin d'être un adversaire traditionnel du Pentagone. L'entreprise a été la première société d'IA majeure à déployer ses modèles dans les réseaux classifiés du gouvernement américain, dans les laboratoires nationaux, pour des missions de renseignement, de planification opérationnelle et de cybersécurité. Elle a même renoncé à plusieurs centaines de millions de dollars de revenus en coupant l'accès à Claude aux entreprises liées au Parti communiste chinois.
Le 26 février, Dario Amodei écrivait : « Nous croyons profondément en l'importance existentielle d'utiliser l'IA pour défendre les États-Unis et les autres démocraties, et pour vaincre nos adversaires autocratiques. » Le Pentagone a d'ailleurs utilisé l'IA Claude lors de l'opération militaire « Absolute Resolve » le 3 janvier au Venezuela, qui a abouti à la capture de Nicolas Maduro.
Le point de rupture
Claude, hébergé sur l'infrastructure AWS et déployé via un partenariat avec Palantir, aurait assisté à la planification et à l'exécution du raid à Caracas, bien que les détails restent confidentiels. Problème : l'arrestation du président vénézuélien a créé un électrochoc. Anthropic a exprimé des inquiétudes éthiques concernant cette utilisation militaire, poussant le Pentagone à lancer une revue de leur contrat de 200 millions de dollars, le considérant comme un risque potentiel.
L'administration Trump a alors formulé une nouvelle exigence : des contrats autorisant tout usage de Claude « qui se conforme au droit américain ». Derrière cette formulation vague se cachent deux cas de figure que la direction d'Anthropic affirme vouloir exclure catégoriquement.
- Premier scénario refusé : la surveillance de masse des citoyens américains. Non pas via des systèmes de renseignement classiques, mais en croisant à grande échelle des données publiques – déplacements, navigation Internet, associations – pour dresser automatiquement un portrait complet de n'importe quel Américain.
- Deuxième scénario rejeté : l'utilisation de l'IA pour des armes entièrement autonomes, capables de sélectionner et d'engager des cibles sans intervention humaine.
Les fondements d'une position éthique
Dans un communiqué daté du 26 février, Dario Amodei a expliqué : « Ces deux exceptions n'ont jamais été un obstacle à l'accélération de l'adoption de nos modèles au sein de nos forces armées. [...] Ces menaces ne changent pas notre position : nous ne pouvons pas en bonne conscience accéder à leur demande. » Pour le PDG d'Anthropic, certaines choses ne peuvent tout simplement pas être vendues, indépendamment de ce qu'un client est prêt à payer.
Le parcours personnel de Dario Amodei éclaire cette position. Fils d'un artisan du cuir toscan et d'une femme attachée au débat d'idées, il a grandi à San Francisco. La mort de son père, touché par une maladie rare alors que les traitements progressaient sensiblement quelques années plus tard, lui a enseigné le décalage entre le progrès scientifique et ses effets réels sur une vie humaine. La perte de son frère aîné à 23 ans a renforcé sa compréhension de l'irréversible.
Une approche constitutionnelle de l'IA
Anthropic a développé un cadre innovant dans lequel le modèle s'autocritique à partir d'une « constitution » – une liste de valeurs et de règles incluant des restrictions sur les contenus dangereux, les usages de surveillance et les applications militaires non supervisées. Cette constitution a été coécrite par la philosophe écossaise Amanda Askell.
Pour Dario Amodei, aligner un modèle d'IA, c'est comme accorder un instrument : un modèle mal aligné produit du bruit, des erreurs, des comportements imprévisibles. Les garde-fous éthiques ne limitent pas la puissance de l'outil, ils la rendent utilisable de manière responsable. En 2025, il a estimé la probabilité d'un scénario catastrophique lié à l'IA – pouvant aller jusqu'à une perte irréversible de contrôle – entre 10 et 25 %.
« Nous ne voulons pas vendre quelque chose que nous ne pensons pas fiable, et nous ne voulons pas vendre quelque chose qui pourrait tuer nos propres soldats ou des civils innocents », a-t-il expliqué à CBS News le 28 février. Conscient des limites de son rôle, Dario Amodei reconnaît que ces questions devraient relever du débat législatif. Mais face à la lenteur du Congrès, quelqu'un doit tenir la ligne éthique.
Les conséquences d'un refus
L'entreprise d'Anthropic n'est pas une ONG – elle construit des modèles toujours plus puissants et est valorisée à plus de 380 milliards de dollars. Mais il existe dans le parcours de son PDG un fil conducteur que peu de ses pairs partagent : il a appris, de façon répétée, ce que signifie arriver trop tard. Son père mort avant que les traitements ne progressent, son frère mort à 23 ans, l'image de Tchernobyl vue enfant à la télévision comme symbole d'une technologie libérée sans garde-fous adéquats.
Quand le Pentagone lui a demandé de retirer deux clauses éthiques de ses contrats, il a donc dit non. Ironie du sort, c'est Sam Altman, le créateur d'OpenAI – une entreprise que Dario Amodei avait choisi de quitter en désaccord avec sa politique de sécurité – qui devrait récupérer le contrat militaire contesté. Ce bras de fer historique entre une entreprise d'IA et le Pentagone pourrait redéfinir les limites éthiques de l'intelligence artificielle dans le domaine militaire pour les années à venir.



