La poignée de main manquée de New Delhi révèle la fracture profonde de l'IA
Poignée de main manquée à New Delhi : fracture de l'IA

Une non-poignée de main historique à New Delhi

C’est un geste manqué qui marquera les annales de la diplomatie technologique. À New Delhi, le Premier ministre indien Narendra Modi a orchestré, autour de la semaine du 20 février 2026, ce que son gouvernement a présenté comme la plus grande conférence sur l’intelligence artificielle jamais organisée en dehors des États-Unis et de la Chine. Plus de 80 nations, cosignataires d’une Déclaration commune sur l’IA, ont répondu présent. Modi ambitionnait de transmettre un message fort : l’avenir de l’intelligence artificielle ne se dessinera pas uniquement dans les sièges sociaux de San Francisco ou les laboratoires de Pékin. L’Inde, désormais première nation mondiale par sa population, entend jouer un rôle déterminant.

Le symbole d’une chaîne humaine brisée

Pour clôturer la plénière des dirigeants, Narendra Modi a improvisé une chaîne humaine. Il a saisi la main de Sam Altman, PDG d’OpenAI, à sa gauche, et celle de Sundar Pichai, patron de Google, à sa droite. Treize PDG, invités à lever les bras d’un seul mouvement, ont ainsi célébré l’adoption de la Déclaration de New Delhi, centrée sur une IA « inclusive, multilingue, au service de tous ». Les engagements des entreprises, intitulés « New Delhi Frontier AI Commitments », portaient sur le partage de données d’usage, l’accessibilité linguistique et une gouvernance responsable.

Puis survint la fissure. Sam Altman et Dario Amodei – le PDG d’Anthropic, la start-up rivale d’OpenAI, dont le chatbot Claude rivalise avec ChatGPT pour la première place du marché mondial – se sont retrouvés placés côte à côte. Pendant plusieurs secondes, un espace vide est demeuré entre leurs mains. Finalement, chacun a levé un poing fermé, de manière isolée, scellant visuellement leur désaccord.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

Les racines d’une rivalité profonde

Pour comprendre cette absence de poignée de main, il faut remonter à San Francisco en 2016. Dario Amodei rejoint alors OpenAI, l’entreprise codirigée par Altman. Ce physicien y devient vice-président de la recherche, contribuant au développement de GPT-2 puis GPT-3. Il participe activement à l’industrialisation du reinforcement learning from human feedback (RLHF), un mécanisme permettant d’aligner les grands modèles de langue sur les préférences humaines.

Né en 1983 à San Francisco, Amodei grandit dans un environnement académique. Docteur en physique de l’université de Princeton, il travaille d’abord en finance quantitative avant d’intégrer Google Brain puis OpenAI. Son approche est marquée par une culture scientifique du risque, privilégiant la formalisation des scénarios extrêmes avant qu’ils ne deviennent réalité.

Cependant, au fil des années, Amodei perçoit un changement chez OpenAI. L’entreprise lève des milliards, s’allie à Microsoft et accélère à un rythme qui l’inquiète. En 2021, accompagné de sa sœur Daniela et d’une douzaine de collègues, il quitte OpenAI pour fonder Anthropic, convaincu que la sécurité doit être l’architecture même des systèmes d’IA, et non une simple variable d’ajustement.

Depuis, les deux entreprises n’ont cessé de se rapprocher sur le marché… tout en s’éloignant sur tous les autres aspects. Il y a quelques semaines, pendant le Super Bowl, Anthropic a diffusé quatre spots publicitaires – intitulés « trahison », « déception », « violation » – pour tourner en dérision OpenAI, qui venait d’annoncer l’introduction de publicités dans sa version gratuite de ChatGPT. Altman a répliqué en qualifiant cette campagne de « clairement malhonnête » et d’« autoritaire ». Deux semaines plus tard, ils se retrouvaient côte à côte à New Delhi, invités par Modi à incarner ensemble l’avenir de l’humanité.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale

Débat sur l’énergie et l’impact environnemental

Interrogé en marge du sommet par The Indian Express, Sam Altman a défendu la consommation énergétique colossale des data centers avec une comparaison audacieuse : « On parle beaucoup de l’énergie nécessaire pour entraîner un modèle d’IA, mais il faut aussi beaucoup d’énergie pour former un être humain… Environ vingt ans de vie, et toute la nourriture consommée pendant cette période, avant de devenir intelligent. Et pas seulement ça : il a fallu l’évolution de 100 milliards d’humains qui ont vécu avant nous pour produire la personne que vous êtes aujourd’hui. »

Sur la question de l’eau, il a fait preuve de la même désinvolture : « C’est totalement bidon. On voit des choses sur internet du genre : “N’utilisez pas ChatGPT, ça consomme 17 gallons (près de 65 litres) d’eau par requête.” C’est complètement faux. » Il a néanmoins concédé que la transition énergétique s’imposait – « il faut aller vers le nucléaire, l’éolien et le solaire très vite » – sans pour autant apaiser les critiques. Matt Stoller, directeur de recherche à l’American Economic Liberties Project, a résumé le malaise en une phrase : « Il dit qu’un très grand tableur et un bébé sont moralement équivalents. »

L’autonomie croissante des agents d’IA

La rupture entre Altman et Amodei se manifeste déjà dans le quotidien, à travers le pouvoir que nous abandonnons progressivement aux agents autonomes. Michel Lévy-Provençal, fondateur de Brightness, raconte comment, à partir d’OpenClaw – un agent personnel open source pilotable via WhatsApp, Telegram ou Slack –, il a constitué un essaim d’agents simulant une organisation entière, avec des rôles distincts (PDG, responsable technologique, marketing, service clients).

En deux semaines, cet essaim a migré l’intégralité de l’architecture applicative de son entreprise depuis Google Cloud vers deux hébergeurs européens souverains – Scaleway et Hetzner – et développé trois nouvelles applications métier. Le tout pour quelques centaines d’euros, alors qu’une telle opération aurait mobilisé « a minima une équipe de cinq à huit développeurs pendant six mois – environ 250 000 euros » dans le monde d’avant.

C’est précisément ce basculement vers des agents de plus en plus autonomes – capables de décider, d’agir et de produire sans intervention humaine directe – qui est au cœur des préoccupations d’Amodei. Comment éviter que l’autonomie des agents ne glisse, progressivement, vers quelque chose qu’on ne contrôle plus ?

L’emploi : la question brûlante

Altman, quant à lui, mise sur la vitesse du déploiement pour accumuler les données, corriger en chemin et forger des standards de fait. Ironiquement, Peter Steinberger, le créateur d’OpenClaw, vient d’être recruté par OpenAI pour « diriger la prochaine génération d’agents personnels ». Amodei préfère tracer des lignes rouges avant d’avancer, qu’il juge « essentielles pour la démocratie » et ancrées dans la culture interne d’Anthropic.

Mais au-delà du débat sur la sécurité technique, un sujet persiste, que ni Modi ni le discours de l’unité ne parviennent à masquer. Pendant que les PDG posaient pour la photo officielle, une dizaine de jeunes militants de l’Indian Youth Congress se sont introduits dans le hall 5 du Bharat Mandapam – après s’être inscrits en ligne comme participants légitimes – torse nu, brandissant des t-shirts à l’effigie de Modi et de Trump.

Ils ont scandé des slogans contre l’accord commercial indo-américain et contre un « Premier ministre compromis », avant d’être interpellés et conduits au commissariat de Tilak Marg. Le parti du Congrès a revendiqué l’action. « Cette colère ne vient pas seulement de nos militants, a déclaré son porte-parole Pawan Khera. Elle vient de chaque jeune qui est au chômage aujourd’hui. » Un message qui contrastait fortement avec l’image soigneusement construite que l’Inde cherchait à offrir au monde ce jour-là.

Deux philosophies du progrès irréconciliables

Dans son essai The Adolescence of Technology, Amodei prévient que l’IA n’est pas un substitut à des emplois spécifiques, mais un substitut général au travail humain. Pour lui, la moitié des emplois de cols blancs en entrée de carrière pourraient disparaître dans les cinq prochaines années. Lors du DealBook Summit du New York Times en décembre, il a posé la question à voix haute : « Peut-on avoir un monde où le travail n’a plus, pour beaucoup de gens, la centralité qu’il a aujourd’hui ? Où les gens trouvent leur sens ailleurs ? »

L’économiste Daron Acemoglu, Prix Nobel 2024 et coauteur de Pourquoi les nations échouent, abonde dans ce sens, mais avec une urgence politique que les entrepreneurs de la Silicon Valley semblent ignorer. Pour lui, « si nous continuons sur cette voie de destruction des emplois et de création d’inégalités, la démocratie américaine ne survivra pas ». Il appelle à une taxe sur la richesse et à une IA « pro-travailleurs » qui augmente plutôt qu’elle ne remplace. Il s’inquiète également de la vitesse à laquelle tout s’emballe, ne laissant pas aux institutions le temps de s’adapter.

Le Royaume-Uni commence à apporter des réponses concrètes : Lord Jason Stockwood, ministre de l’Investissement, a confirmé au Financial Times en février 2026 que le gouvernement étudie l’introduction d’un revenu universel de base pour amortir les pertes d’emplois liées à l’IA. Une mesure qui ressemble cependant plus à un pansement qu’à un véritable projet de société.

Modi souhaitait une image d’unité. Il a obtenu autre chose : la cristallisation publique de deux philosophies du progrès – celle d’un entrepreneur façonné par l’accélération permanente de la Silicon Valley, et celle d’un physicien obsédé par la maîtrise des systèmes complexes. Ces deux visions devraient se retrouver l’an prochain en Suisse, où se tiendra un grand sommet mondial sur l’intelligence artificielle. Un terrain neutre pour une vraie discussion, enfin ? L’avenir le dira.