Anthropic refuse à l'armée américaine l'usage illimité de son IA Claude pour raisons éthiques
Anthropic refuse l'usage illimité de Claude à l'armée américaine

Anthropic oppose un refus catégorique à l'administration Trump sur l'utilisation de son IA

La start-up californienne Anthropic a fermement rejeté jeudi la demande de l'administration Trump de lever toutes les restrictions éthiques sur l'utilisation de son intelligence artificielle Claude par l'armée américaine. Malgré un ultimatum formulé par Washington, la société a maintenu sa position en refusant d'accorder un accès sans limites à sa technologie.

Deux limites éthiques infranchissables

Anthropic a spécifiquement identifié deux cas d'utilisation qu'elle ne permettra pas : la surveillance de masse des citoyens américains et le contrôle d'armes mortelles entièrement autonomes. Dans un communiqué, Dario Amodei, le PDG d'Anthropic, a déclaré : "Utiliser ces systèmes à des fins de surveillance de masse domestique est incompatible avec les valeurs démocratiques."

Le dirigeant a également souligné que les systèmes d'IA les plus avancés ne sont pas encore suffisamment fiables pour qu'on leur confie le pouvoir de contrôler des armes mortelles sans supervision humaine finale. "Nous ne fournirons pas sciemment un produit qui met militaires et civils américains en danger", a-t-il affirmé.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

Un ultimatum gouvernemental et des menaces de sanctions

Le ministre de la Défense Pete Hegseth avait convoqué mardi le patron d'Anthropic après le refus initial de la société d'ouvrir complètement son IA Claude à l'armée américaine. Il avait fixé un ultimatum jusqu'au vendredi 27 février pour obtenir un accès inconditionnel à la technologie.

Pour contraindre Anthropic à se plier à ses exigences, Pete Hegseth envisage d'utiliser une loi votée en 1950 qui permet de forcer une entreprise privée à produire des biens pour la défense nationale. Il a également mentionné la possibilité d'inscrire Anthropic sur la liste des sociétés présentant "un risque pour les approvisionnements".

Une position isolée dans le secteur

Le ministère de la Défense a demandé à tous ses fournisseurs d'IA de lever les restrictions d'utilisation de leurs modèles par défaut, pour élargir les cas d'usage possibles tant qu'ils restent dans la légalité. Tous ont donné leur accord, y compris Anthropic, à l'exception des deux cas spécifiques exposés par son dirigeant.

Anthropic, fondée en 2021 par d'anciens membres d'OpenAI, a toujours revendiqué une approche éthique de l'intelligence artificielle. Début 2026, la start-up a publié un document appelé "constitution" qui détaille une série d'instructions données à Claude pour encadrer sa production, visant notamment à "empêcher des actions à la dangerosité inappropriée".

La société reconnaît que c'est le ministère de la Défense, et non les entreprises privées, qui prend les décisions militaires. Cependant, elle estime que dans certains cas spécifiques, l'IA peut nuire aux valeurs démocratiques plutôt que les défendre, justifiant ainsi sa position ferme face aux pressions gouvernementales.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale