OpenAI signe avec le Pentagone après l'échec d'Anthropic, malgré la fronde des employés de l'IA
OpenAI signe avec le Pentagone après l'échec d'Anthropic

Un retournement spectaculaire dans la Silicon Valley

La Silicon Valley a connu un véritable coup de théâtre ce vendredi 27 février 2026. Alors que les négociations entre la start-up Anthropic et le Pentagone venaient d'échouer quelques heures plus tôt, OpenAI a annoncé avoir conclu un accord majeur avec le ministère américain de la Défense. Cette décision intervient dans un climat de tension inédit au sein de l'industrie américaine de l'intelligence artificielle, marqué par une fronde interne sans précédent.

Une fronde interne sans précédent dans l'industrie de l'IA

Plus de 700 employés de Google et d'OpenAI avaient signé une lettre ouverte appelant leurs directions respectives à suivre l'exemple d'Anthropic pour éviter un usage militaire incontrôlé de l'intelligence artificielle. Cette mobilisation exceptionnelle témoignait des profondes inquiétudes éthiques au sein même des entreprises qui développent ces technologies de pointe.

Mais dans un contexte politique tendu, le président Donald Trump a ordonné à son administration de ne plus utiliser les services d'Anthropic, qualifiant même l'entreprise d'« entreprise d'IA radicale de gauche ». Peu après cette décision, OpenAI, le créateur de ChatGPT, a confirmé avoir trouvé un terrain d'entente avec le Pentagone pour fournir ses technologies d'IA dans des systèmes classifiés, avec des garanties de sécurité spécifiques.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

Les termes de l'accord controversé

L'accord autorise l'armée américaine à utiliser les modèles d'OpenAI « pour toute finalité légale », une formulation qui avait précisément fait échouer les négociations avec Anthropic. Sam Altman, PDG d'OpenAI, a justifié cette décision sur le réseau social X en déclarant : « Dans toutes nos interactions, le DoW a montré un profond respect pour la sécurité et le désir de s'associer pour obtenir le meilleur résultat possible ».

Le dirigeant a ajouté que le Pentagone avait accepté que certains employés d'OpenAI travaillent aux côtés de personnels gouvernementaux sur des projets classifiés « pour aider avec nos modèles et garantir leur sécurité ». Ces ajustements permettent à OpenAI d'affirmer qu'elle respecte ses principes de sécurité en matière d'IA, tout en sécurisant un contrat stratégique avec l'armée américaine.

L'échec d'Anthropic en toile de fond

Anthropic, entreprise californienne créée en 2021 par d'anciens membres d'OpenAI, avait exigé des clauses spécifiques pour empêcher toute utilisation de ses technologies à des fins de surveillance massive des citoyens américains ou pour des armes autonomes létales. Le Pentagone, de son côté, estimait qu'un prestataire privé ne pouvait dicter les conditions d'usage d'outils relevant de la sécurité nationale.

Faute d'accord avant l'ultimatum fixé à 17h01 vendredi, le secrétaire à la Défense Pete Hegseth a classé Anthropic comme « risque pour la chaîne d'approvisionnement de la sécurité nationale », coupant de facto la start-up de tout contrat fédéral. Cette décision radicale a créé un vide que OpenAI s'est empressé de combler.

La stratégie différenciée de Sam Altman

Dans ce contexte explosif, Sam Altman a choisi une voie radicalement différente de celle d'Anthropic. Là où son rival refusait le principe d'un usage « pour toute finalité légale » sans garanties préalables strictes, OpenAI a accepté cette formulation tout en négociant l'intégration de protections techniques internes.

« OpenAI construira des garde-fous techniques pour garantir que nos modèles se comportent comme ils le doivent, ce que le DoW souhaitait également », a expliqué Sam Altman. Cette approche pragmatique permet à l'entreprise de maintenir son influence dans le secteur stratégique de la défense tout en préservant une façade éthique.

Ce revirement spectaculaire illustre les tensions croissantes entre les impératifs commerciaux, les considérations éthiques et les exigences de sécurité nationale dans l'industrie florissante de l'intelligence artificielle. Alors que les technologies d'IA deviennent de plus en plus cruciales pour la défense nationale, ce type de dilemmes éthiques et stratégiques devrait se multiplier dans les années à venir.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale