Anthropic dit non au Pentagone pour défendre l'éthique de l'intelligence artificielle
Anthropic, une entreprise de pointe dans le domaine de l'intelligence artificielle, a récemment refusé de signer un contrat avec le Pentagone. Cet accord aurait accordé à l'armée américaine un accès illimité à sa technologie, y compris les grands modèles de langage et le robot conversationnel Claude, pour toutes fins légales. Le PDG Dario Amodei a imposé deux conditions non négociables : pas de surveillance de masse des citoyens américains et pas d'armes entièrement autonomes sans supervision humaine. Cette décision éthique a eu des conséquences financières significatives, avec le président américain Donald Trump ordonnant aux agences de cesser d'utiliser les outils d'Anthropic, tandis que son rival OpenAI a rapidement conclu un accord avec le Pentagone.
Les risques des armes entièrement autonomes
Les armes entièrement autonomes représentent une menace majeure pour la sécurité mondiale. Ces plates-formes militaires, une fois activées, opèrent de manière indépendante sans intervention humaine, s'appuyant sur des capteurs et des algorithmes d'IA pour analyser l'environnement, sélectionner et atteindre des cibles. Des hélicoptères de pointe fonctionnent déjà sans contrôle humain, et des recherches récentes montrent que dans 95% des cas, des modèles d'IA avancés ont choisi d'utiliser des armes nucléaires dans des simulations de guerre. Les robots conversationnels, bien que non armés en soi, peuvent être intégrés à des systèmes militaires pour synthétiser des renseignements, générer des listes de cibles et recommander des frappes, réduisant ainsi le contrôle humain à un niveau minimal voire inexistant.
Les dangers de la surveillance de masse basée sur l'IA
La surveillance de masse rendue possible par l'IA pose des risques sérieux pour les libertés fondamentales. Les modèles d'IA de pointe peuvent analyser rapidement d'énormes ensembles de données, générer des profils pour détecter des activités suspectes et suivre des individus en temps réel grâce à des sources multiples comme les réseaux sociaux et la reconnaissance faciale. Dario Amodei a souligné que ces systèmes sont opaques, avec des processus d'analyse incompréhensibles, ce qui rend difficile la remise en question de leurs conclusions. De plus, des erreurs d'association peuvent avoir des conséquences graves lorsqu'elles sont appliquées à des millions de personnes, menaçant la vie privée et les droits humains.
L'expression "à toutes fins légales" : une limite insuffisante
L'expression à toutes fins légales dans le contrat proposé par le Pentagone semble offrir une protection, mais en réalité, elle permet au gouvernement d'utiliser l'IA pour toute fin qu'il juge légale, avec peu de restrictions. La légalité est un concept variable, sujet à des changements de lois et des interprétations divergentes, ce qui ne garantit pas une protection adéquate contre les abus. Anthropic, fondée par d'anciens employés d'OpenAI et dédiée à la sécurité et à l'éthique de l'IA, a créé un laboratoire interne pour comprendre comment Claude prend des décisions, soulignant l'importance de la transparence face à l'opacité des grands modèles de langage.
Comparaison avec le projet Maven de Google
Cette situation rappelle le projet Maven de Google en 2018, où l'entreprise avait signé un contrat avec le Pentagone pour analyser des images de drones, déclenchant des protestations de 4 000 employés. Google a finalement renoncé à renouveler le contrat et a publié des principes éthiques en matière d'IA, mais en 2025, elle a discrètement abandonné son engagement de ne pas utiliser l'IA à des fins militaires pour obtenir de nouveaux contrats lucratifs. Le cas d'Anthropic diffère cependant, car l'IA générative en 2026 est beaucoup plus puissante, avec des risques accrus de débordement et d'autonomie dans l'apprentissage.
Qui fixe les limites de l'IA en matière de sécurité nationale ?
La question cruciale est de savoir qui établit les limites de l'utilisation de l'IA lorsque la sécurité nationale est en jeu. Si la notion de fins légales devient la norme, les garde-fous dépendront des politiques et de l'interprétation juridique, laissant l'éthique aux négociations contractuelles. Pour le Canada et d'autres pays, il est essentiel de renforcer les outils de gouvernance, comme la directive sur la prise de décision automatisée, qui vise à garantir transparence, responsabilité et équité. Les citoyens doivent exiger des contrôles indépendants et veiller à ce que les mesures de protection ne reposent pas uniquement sur les gouvernements et les grandes entreprises.



