Une note de blog sur l'IA fait trembler Wall Street : révélateur de la fragilité de la hype technologique
Fin février 2026, une simple note de blog publiée par Citrini Research, une petite entreprise de conseil en investissement, a mis en émoi la planète finance et provoqué des turbulences sur Wall Street. Pour le sociologue Juan Sebastian Carbonell, cet épisode est révélateur de la fragilité de la hype actuelle autour de l'intelligence artificielle et de sa vulnérabilité aux récits catastrophistes.
Le scénario apocalyptique de Citrini Research
Dans une longue note publiée le 22 février, Citrini Research dessine un avenir où le développement des capacités de l'intelligence artificielle aboutirait d'ici 2028 à une crise financière mondiale. L'argument repose sur un cercle vicieux inquiétant :
- Les capacités de l'IA ne cessent de s'améliorer
- Elle remplace de plus en plus de travailleurs, notamment des cols blancs
- Ces derniers sont déplacés vers des métiers moins bien rémunérés
- Leur pouvoir d'achat diminue, réduisant les marges de profit des entreprises
- Ces entreprises investissent alors davantage dans l'IA pour compenser
- Les capacités de l'intelligence artificielle s'améliorent encore
Selon cette note, il n'existerait aucun « frein naturel » à cette spirale infernale qui mènerait inévitablement à une crise de sous-consommation généralisée.
Un récit qui n'a rien de fondamentalement nouveau
L'idée que les promesses de la technologie pourraient se retourner contre ses créateurs n'a rien d'original. Le scénario décrit par Citrini Research ressemble par bien des aspects au « Pianiste déchaîné », roman de science-fiction de Kurt Vonnegut publié en 1952, dans lequel l'auteur dépeint une société où les machines auraient mis au chômage non seulement les ouvriers, mais aussi de plus en plus de cadres, provoquant un mécontentement social profond.
On peut également y voir une nouvelle expression du « mythe de la singularité », dont parle le chercheur en informatique Jean-Gabriel Ganascia, où une intelligence artificielle générale aurait dépassé les compétences humaines. L'histoire aurait pu s'arrêter là et cet exercice assez commun en futurologie aurait rejoint les nombreux discours catastrophistes sur les prétendus dangers existentiels de l'IA, si ce n'est que cette note a effectivement contribué à faire chuter les cours boursiers des entreprises technologiques sur Wall Street.
La fragilité des prémisses de la note
L'importance médiatique prise par cet épisode mérite qu'on s'y attarde, non pas parce qu'il serait révélateur de ce que l'IA peut faire, mais plutôt de la fragilité de la hype actuelle. La note repose sur plusieurs prémisses discutables :
Premièrement, elle postule qu'on pourrait prévoir avec certitude ce que serait le monde du travail d'ici deux ans ou plus. Pourtant, en 2019, personne n'aurait pu anticiper la transformation du monde du travail en 2023 après le Covid-19, la guerre en Ukraine, et leurs conséquences sur les chaînes d'approvisionnement et les rapports géopolitiques.
Deuxièmement, elle affirme que « cette fois-ci, c'est différent » : la destruction créatrice ne serait plus d'actualité à l'ère de l'IA. Or, ce n'est pas la première fois qu'on utilise cette rhétorique. Chaque période d'enthousiasme technologique a été accompagnée de prédictions exagérées sur le nombre d'emplois supprimés.
Ce que la note ne dit pas est plus important
Peut-être que ce que la note de Citrini Research ne mentionne pas est plus significatif que ce qu'elle affirme. L'entreprise ne parle à aucun moment des limites écologiques de l'intelligence artificielle, notamment ses besoins colossaux en eau et en énergie. Pour rappel, OpenAI risque bientôt de consommer autant d'électricité que New York et San Diego réunis pendant une vague de chaleur, soit plus que la Suisse ou le Portugal.
Plus surprenant encore pour une entreprise de conseil en investissement, la note ne dit rien des risques d'une bulle financière liée à l'IA. Les entreprises font aujourd'hui un pari sur la capacité du boom de l'IA à générer de la productivité et de la rentabilité, mais les effets réels de l'intelligence artificielle sur la productivité du travail font encore débat.
Enfin, la note ignore complètement les risques politiques de l'IA, comme la vidéosurveillance algorithmique ou l'alliance entre les entreprises d'IA et le militarisme. En juin 2025, l'armée américaine intégrait dans une unité de réserve des cadres de Meta, OpenAI et Palantir. Plus récemment, en France, MistralAI officialisait un accord avec l'armée française.
Écrire des récits d'anticipation sur le chômage technologique de masse et semer la panique chez Wall Street semble bien en décalage par rapport aux applications réelles de l'IA et aux véritables défis qu'elle pose à notre société.



