Le Pentagone choisit OpenAI après le rejet d'Anthropic pour des raisons éthiques
Pentagone choisit OpenAI après rejet d'Anthropic

Le Pentagone opte pour OpenAI après le refus éthique d'Anthropic

Dans un revirement stratégique significatif, le Pentagone a officiellement sélectionné les modèles d'intelligence artificielle d'OpenAI pour son réseau classifié, marquant ainsi la fin de toute collaboration avec Anthropic. Cette décision intervient directement après l'ordre présidentiel de Donald Trump exigeant la cessation immédiate de toute utilisation de l'IA Claude développée par Anthropic.

Un accord sous conditions éthiques strictes

Sam Altman, le dirigeant d'OpenAI, a confirmé sur la plateforme X la conclusion d'un accord avec le ministère de la Guerre, terme employé par l'administration Trump pour désigner le département de la Défense. Cet accord intègre des garanties fondamentales, notamment l'interdiction de la surveillance de masse au niveau national et la responsabilité humaine dans l'usage de la force, y compris pour les systèmes d'armes autonomes.

Ces conditions correspondent exactement aux lignes rouges que posait précédemment Anthropic pour autoriser l'utilisation de ses technologies par l'armée américaine. Altman a précisé que des garanties techniques supplémentaires seraient mises en place pour assurer le comportement approprié des modèles, répondant ainsi aux exigences du Pentagone.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

La rupture brutale avec Anthropic

Quelques heures avant l'annonce de l'accord avec OpenAI, Donald Trump a publié sur Truth Social un message incendiaire ordonnant à son administration de « cesser immédiatement toute utilisation » de l'IA d'Anthropic. Le président américain a accusé l'entreprise de mettre en danger « des vies américaines, nos troupes et la sécurité nationale ».

Dans une déclaration virulente, Trump a affirmé : « Les États-Unis ne laisseront jamais une entreprise de gauche radicale et woke dicter à notre grande armée comment combattre et gagner des guerres ! » Cette position a été renforcée par le ministre de la Défense Pete Hegseth, qui a qualifié la position d'Anthropic de « trahison » et a banni l'entreprise de toute collaboration avec l'armée américaine.

La position éthique d'Anthropic

Anthropic, fondée en 2021 par d'anciens membres d'OpenAI, a toujours défendu une approche éthique de l'intelligence artificielle. La société avait refusé jeudi de céder à un ultimatum exigeant une utilisation sans restriction de son IA Claude par l'armée américaine.

Dario Amodei, le dirigeant d'Anthropic, avait justifié cette position en déclarant : « Dans un nombre restreint de cas, nous pensons que l'IA peut nuire aux valeurs démocratiques, plutôt que les défendre. Utiliser ces systèmes à des fins de surveillance de masse domestique est incompatible avec les valeurs démocratiques. »

Le quadragénaire a particulièrement insisté sur le fait que les systèmes d'IA les plus avancés ne sont pas encore suffisamment fiables pour contrôler des armes mortelles sans supervision humaine. « Nous ne fournirons pas sciemment un produit qui met militaires et civils américains en danger », avait-il affirmé.

Les conséquences juridiques et stratégiques

Anthropic s'est déclarée « profondément attristée » par la décision du gouvernement américain et a estimé que cette désignation serait « juridiquement infondée » tout en créant « un précédent dangereux pour toute entreprise américaine négociant avec le gouvernement ». L'entreprise a promis de saisir la justice pour contester cette décision.

Ironiquement, Sam Altman a déclaré avoir demandé au ministère « d'offrir ces mêmes conditions à toutes les entreprises d'IA », exprimant son souhait de voir « les choses s'apaiser, loin des actions juridiques et gouvernementales, pour aboutir à des accords raisonnables ».

Cette situation met en lumière les tensions croissantes entre les impératifs de sécurité nationale et les considérations éthiques dans le développement et le déploiement des technologies d'intelligence artificielle à des fins militaires. Le conflit révèle également les divisions profondes sur la régulation appropriée de ces technologies puissantes et potentiellement dangereuses.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale