Pentagone vs Anthropic : l'ultimatum américain pour lever les restrictions éthiques de l'IA
Pentagone vs Anthropic : ultimatum sur l'IA éthique

Le Pentagone exige la levée des restrictions éthiques sur l'IA d'Anthropic

Le ministre américain de la défense, Pete Hegseth, a lancé un ultimatum ferme à la start-up californienne d'intelligence artificielle Anthropic. Il exige que toutes les restrictions limitant l'utilisation de son IA par le Pentagone soient levées d'ici vendredi à 23h01, heure de Paris. En cas de refus, le ministre menace d'utiliser une loi datant de 1950, permettant de contraindre une entreprise privée à produire des biens pour la défense nationale. Cette information a été confirmée par un responsable à l'Agence France-Presse.

Des sanctions potentielles sévères

Si Anthropic ne se conforme pas à cette demande, Pete Hegseth envisage également d'inscrire la société sur une liste noire des entreprises présentant un risque pour les approvisionnements. Cette liste, qui comprend actuellement uniquement des sociétés étrangères comme le chinois Huawei ou le russe Kaspersky, entraîne des restrictions drastiques sur les contrats avec le gouvernement américain. Bien que cela signifierait généralement l'exclusion de facto, le ministre semble prêt à maintenir une pression exceptionnelle dans ce cas précis.

Un bras de fer autour de l'éthique de l'IA

Cet ultimatum fait suite à une rencontre mardi entre Pete Hegseth et le PDG d'Anthropic, Dario Amodei. Le ministère a demandé à ses fournisseurs d'IA de supprimer par défaut les restrictions d'utilisation de leurs modèles, afin d'élargir les applications légales. Tous ont accepté, y compris Anthropic, mais cette dernière a souhaité maintenir des interdictions spécifiques pour deux cas : la surveillance de masse des populations et l'automatisation d'attaques mortelles.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

Un porte-parole d'Anthropic a déclaré à l'AFP : Nous poursuivons nos discussions de bonne foi relatives aux usages de l'IA. L'objectif est de s'assurer que la société peut soutenir la mission de sécurité nationale du gouvernement tout en respectant les limites éthiques de ses modèles.

Une approche éthique revendiquée

Fondée en 2021 par d'anciens membres d'OpenAI, Anthropic a toujours mis en avant une approche éthique de l'intelligence artificielle. Début 2026, la start-up a publié une constitution détaillant des instructions pour encadrer les productions de son IA Claude, visant notamment à empêcher des actions dangereuses. Ce document illustre l'engagement de l'entreprise en faveur d'une IA responsable, ce qui entre en conflit direct avec les exigences du Pentagone.

Cette confrontation soulève des questions cruciales sur l'équilibre entre innovation technologique, sécurité nationale et éthique, dans un contexte où l'IA devient un enjeu stratégique majeur pour les puissances mondiales.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale