Le Pentagone exige d'Anthropic la levée des restrictions éthiques sur son IA Claude
Pentagone exige d'Anthropic la levée des restrictions sur son IA

Le Pentagone intensifie la pression sur Anthropic concernant les restrictions éthiques de son IA

Le ministère américain de la Défense, dirigé par Pete Hegseth, a convoqué en urgence mardi dernier Dario Amodei, le PDG de la start-up californienne d'intelligence artificielle Anthropic. Cette rencontre intervient dans un contexte de tensions croissantes autour des limitations que l'entreprise impose à l'utilisation de son modèle d'IA Claude, particulièrement pour des applications militaires et de surveillance.

Des exigences gouvernementales qui heurtent les principes éthiques

Selon des sources proches du dossier confirmant des informations du site Axios, le Pentagone a formellement demandé à tous ses fournisseurs en intelligence artificielle de lever par défaut les restrictions d'utilisation de leurs modèles. L'objectif affiché est d'élargir les cas d'usage possibles, à condition qu'ils restent dans le cadre légal. Bien qu'Anthropic ait globalement donné son accord comme les autres entreprises, la jeune société a maintenu deux interdictions spécifiques concernant son IA Claude.

L'entreprise refuse catégoriquement que son modèle soit utilisé pour deux types d'applications :

Bannière large Pickt — app de listes de courses collaboratives pour Telegram
  • La surveillance de masse des populations civiles
  • L'automatisation d'attaques pouvant entraîner des pertes humaines

Des menaces concrètes de sanctions gouvernementales

Face à cette résistance, le ministère de la Défense américain a durci son ton. Plusieurs médias américains rapportent que le Pentagone a menacé Anthropic de mettre un terme au contrat qui les lie, et pire encore, d'inscrire l'entreprise sur la liste des sociétés présentant « un risque pour les approvisionnements » (supply chain risk).

Cette liste, qui ne comprend actuellement que des entreprises étrangères comme le chinois Huawei ou le russe Kaspersky, entraîne des restrictions drastiques concernant les contrats avec le gouvernement américain. Elle s'applique généralement aux sociétés dont les produits pourraient être utilisés pour des activités menaçant la sécurité nationale des États-Unis.

Un contrat de 200 millions de dollars en jeu

La situation est particulièrement délicate pour Anthropic, qui risque de perdre un contrat de 200 millions de dollars signé en juin dernier avec le Pentagone, ainsi que d'autres opportunités commerciales potentielles. Un porte-parole de l'entreprise a déclaré : « Anthropic est engagée dans le soutien à la sécurité nationale des États-Unis par le biais de l'IA », tout en évoquant des « discussions productives, de bonne foi » avec le ministère.

Pourtant, selon Axios qui cite un officiel du ministère, Pete Hegseth prévoit de présenter un ultimatum à Dario Amodei. Une rupture aurait des conséquences significatives pour les deux parties : Anthropic perdrait des revenus substantiels, tandis que le Pentagone se priverait du seul modèle d'IA actuellement utilisé pour des opérations classées secret défense.

L'approche éthique d'Anthropic mise à l'épreuve

Fondée en 2021 par d'anciens membres d'OpenAI, Anthropic a toujours revendiqué une approche éthique et responsable du développement de l'intelligence artificielle. Début 2026, la start-up a publié un document fondateur appelé « constitution » qui détaille une série d'instructions données à Claude pour encadrer strictement sa production.

Ces principes visent notamment à « empêcher des actions à la dangerosité inappropriée », reflétant la philosophie de l'entreprise qui place les considérations éthiques au cœur de son développement technologique. Le conflit actuel avec le Pentagone représente donc un test crucial pour cette vision, opposant impératifs de sécurité nationale et garde-fous éthiques dans le domaine sensible de l'intelligence artificielle militaire.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale