Le Pentagone exige qu'Anthropic lève les restrictions sur son IA Claude
Le 24 février, le Pentagone a adressé un ultimatum à l'entreprise Anthropic, exigeant la levée de toutes les restrictions qui entravent certains usages de son modèle d'intelligence artificielle Claude. Le secrétaire à la défense américain, Pete Hegseth, a même menacé de recourir à une loi datant de 1950, le Defense Production Act, afin de contraindre l'entreprise à fournir ses services à la défense nationale.
Le refus ferme d'Anthropic
Le 27 février, par la voix de son président-directeur général, Dario Amodei, Anthropic a catégoriquement refusé cette demande. Dans un communiqué officiel, Dario Amodei a précisé que l'entreprise acceptait de collaborer avec les autorités américaines, mais avec deux exceptions majeures : la surveillance intérieure de masse et les armes complètement autonomes. Cette opposition s'inscrit dans la longue histoire des relations complexes entre le secteur public et le secteur privé dans le domaine sécuritaire et militaire.
Un contexte historique chargé
Après les attentats du 11 septembre 2001, le Patriot Act a instauré une extension durable des capacités de surveillance aux États-Unis. En 2016, suite à la tuerie de San Bernardino, l'opposition entre Apple et le FBI concernant le déverrouillage d'iPhone a révélé une autre ligne de fracture significative. L'affaire Anthropic prolonge cette histoire conflictuelle, mais avec un saut d'échelle inédit dû aux avancées technologiques.
L'impact de l'IA générative
Avec l'émergence de l'intelligence artificielle générative, les enjeux ne se limitent plus seulement à l'accès aux données. Il s'agit désormais de capacités d'analyse, de tri, de prédiction et de décision beaucoup plus vastes et sophistiquées. Ce continuum technologique révèle une dynamique de fond préoccupante : l'émergence d'un partenariat public-privé militaire où les capacités technologiques critiques sont conçues, détenues et opérées en partie par des acteurs privés.
Les implications pour la démocratie
Pendant ce temps, les acteurs gouvernementaux cherchent à utiliser ces technologies de la manière la plus extensive possible, souvent en dehors des garanties traditionnelles de l'État de droit. Si tous les régimes de pouvoir ont historiquement mis en œuvre des techniques de surveillance à diverses échelles, ces politiques se heurtaient autrefois à des limites physiques et technologiques.
La surveillance à l'ère numérique
Les avancées récentes en matière d'intelligence artificielle permettent désormais une surveillance à grande échelle, quasi illimitée. Ces changements profonds ont étendu le concept de panoptisme, cher au philosophe Michel Foucault, à un cadre numérique où le contrôle est moins visible mais désormais omniprésent dans la société contemporaine.
La dilution de la responsabilité politique
Cette évolution technologique soulève des questions cruciales sur la dilution de la responsabilité politique. Alors que les capacités de surveillance et de contrôle s'étendent exponentiellement, les mécanismes de reddition de comptes et les garde-fous démocratiques peinent à suivre le rythme des innovations technologiques, créant un déséquilibre potentiellement dangereux pour les libertés fondamentales.



