Donald Trump ordonne l'arrêt de l'IA d'Anthropic, accusant la start-up de mettre en danger la sécurité nationale
Trump stoppe l'IA d'Anthropic, accusée de nuire à la sécurité

Une décision présidentielle radicale contre l'intelligence artificielle

Dans un message publié sur son réseau social Truth Social, le vendredi 27 février, le président américain Donald Trump a annoncé une mesure drastique concernant la technologie d'Anthropic. Il a ordonné à toutes les agences fédérales de cesser immédiatement toute utilisation des systèmes d'intelligence artificielle développés par cette start-up californienne. « Nous n'en avons pas besoin, nous n'en voulons pas, et nous ne travaillerons plus avec eux », a-t-il écrit, marquant une rupture brutale avec une entreprise pionnière du secteur.

Un ultimatum du Pentagone et un refus catégorique

Cette décision fait suite à un ultimatum lancé par le secrétaire à la défense américain, Pete Hegseth. Il avait donné jusqu'au vendredi à 23h01, heure de Paris, à Anthropic pour accepter d'ouvrir sans restriction son modèle Claude à l'armée américaine. Faute de quoi, le gouvernement menaçait d'utiliser une législation datant de la guerre froide pour forcer la start-up à coopérer. Donald Trump a qualifié le refus d'Anthropic d'« erreur désastreuse », affirmant que « leur égoïsme met en danger des vies américaines, nos troupes et la sécurité nationale ».

Le patron d'Anthropic, Dario Amodei, a répondu par un communiqué ferme : « Ces menaces ne changent pas notre position : en toute conscience, nous ne pouvons pas accéder à leur demande. » La start-up, qui collabore déjà avec les services de renseignement et l'armée pour la défense du pays, pose une limite éthique claire à deux usages spécifiques.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

Les limites éthiques d'Anthropic face au pouvoir militaire

Anthropic refuse catégoriquement d'autoriser l'utilisation de sa technologie dans deux domaines précis :

  • La surveillance de masse des citoyens américains, que Dario Amodei juge « incompatible avec les valeurs démocratiques ».
  • Les armes mortelles entièrement autonomes, car les systèmes d'IA ne sont pas encore assez fiables pour prendre des décisions de vie ou de mort sans supervision humaine.

Le dirigeant, convoqué mardi par Pete Hegseth, insiste sur la responsabilité de son entreprise : « Nous ne fournirons pas sciemment un produit qui met militaires et civils américains en danger. » Il reconnaît que c'est le ministère de la défense qui prend les décisions militaires, mais estime que dans certains cas, l'IA peut nuire aux valeurs démocratiques plutôt que les défendre.

Un conflit qui révèle les tensions entre innovation et éthique

Cette confrontation met en lumière les dilemmes profonds que pose le développement rapide de l'intelligence artificielle. D'un côté, le gouvernement américain, sous la direction de Donald Trump, exige un accès illimité aux technologies les plus avancées pour des raisons de sécurité nationale. De l'autre, une entreprise privée comme Anthropic tente d'établir des garde-fous éthiques, arguant que certaines applications pourraient compromettre les libertés fondamentales.

La position d'Anthropic repose sur une évaluation technique : les systèmes d'IA les plus sophistiqués ne sont pas encore suffisamment fiables pour être déployés dans des contextes où des vies humaines sont en jeu sans contrôle humain ultime. Cette prise de position courageuse, face à la pression du plus puissant appareil militaire du monde, illustre les défis auxquels sont confrontées les entreprises technologiques dans un paysage géopolitique de plus en plus tendu.

L'issue de ce conflit pourrait avoir des répercussions majeures sur l'avenir de la régulation de l'intelligence artificielle, non seulement aux États-Unis mais aussi à l'échelle internationale. Elle pose la question fondamentale de savoir qui doit décider des limites éthiques de technologies qui transforment profondément notre société et notre sécurité.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale