Faut-il encore décider ? Un livre explore la décision à l'ère de l'intelligence artificielle
Faut-il encore décider ? L'IA et la prise de décision

Faut-il encore décider ? Un ouvrage novateur sur l'IA et la prise de décision

Alors que les publications sur l'intelligence artificielle se multiplient, souvent avec des approches binaires et déconnectées du réel, la parution de Faut-il encore décider ? (Flammarion, 240 pages) ce 25 février apporte une bouffée d'air frais. L'originalité de cet ouvrage réside dans son angle : il ne s'agit pas d'un livre sur l'IA en tant que telle, mais sur la décision à l'ère de l'intelligence artificielle. Une perspective qui devrait captiver de nombreux décideurs confrontés à ces nouvelles réalités.

L'IA et les sciences de la décision : une histoire commune

Olivier Sibony, professeur de stratégie à HEC Paris, et l'entrepreneur Eric Hazan démontrent, études et exemples concrets à l'appui, comment l'émergence de l'IA nous contraint à repenser fondamentalement notre rapport à la décision. Un constat s'impose : "Nous sommes entrés dans un monde où, de plus en plus, les décisions artificielles seront meilleures que celles des experts humains." Dès lors, la question centrale se pose : si l'IA peut réellement décider mieux que nous, faut-il encore décider ?

Les auteurs évitent soigneusement les écueils de la dystopie et de la "technophilie naïve". Leur interrogation ne se limite pas à savoir qui décide, mais explore dans quelles conditions chacun doit le faire. Ils révèlent une connexion surprenante : l'histoire de l'IA et celle des sciences de la décision sont étroitement liées.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

Deux modes de pensée : Système 1 et Système 2

Olivier Sibony explique : "Les différentes formes d'IA actuelles présentent une analogie avec les deux modes de pensée identifiés par les sciences de la décision au cours des cinquante dernières années." Il s'agit de la pensée rapide et intuitive (Système 1) et de la pensée logique et systématique (Système 2).

La première vague d'IA, dite "symbolique", tentait d'imiter le Système 2 humain en encodant explicitement des règles de décision. Cependant, cette approche a rapidement montré ses limites face à la complexité du monde réel. Les nouvelles IA, notamment les modèles de langage (LLM), fonctionnent plutôt comme notre Système 1 : elles opèrent par association d'idées basée sur des probabilités, s'appuyant sur une immense quantité d'expérience sans règles explicites.

Deux manières d'utiliser l'IA pour décider

Les auteurs distinguent deux approches principales pour intégrer l'IA dans les processus décisionnels :

  1. L'IA outil : lorsque l'IA est objectivement meilleure que les humains pour une tâche spécifique (imagerie médicale, transactions financières, choix logistiques). Dans ce cas, il faut accepter de suivre ses recommandations, même en cas de désaccord.
  2. La codécision : lorsque les objectifs sont mal définis ou les données insuffisantes. L'IA devient alors un partenaire qui aide à explorer des options, analyser des scénarios, ou jouer l'avocat du diable.

Cette distinction est cruciale. Dans le premier cas, la responsabilité humaine consiste à exercer un contrôle rigoureux sur la qualité du modèle d'IA choisi. Dans le second, les LLM peuvent se révéler d'excellents collaborateurs pour enrichir la réflexion collective.

Les biais algorithmiques : un miroir de nos propres imperfections

Une objection fréquente à l'IA décisionnelle concerne ses biais. Les auteurs apportent une réponse nuancée : "Si l'IA a des biais, c'est parce qu'elle nous imite – et que des biais, nous en avons nous aussi." Les biais algorithmiques reproduisent souvent les imperfections de nos décisions passées. Revenir au jugement humain pur ne résout donc pas le problème fondamental.

L'IA fonctionne comme un miroir de nos propres limites. Plutôt que de rejeter la technologie, il s'agit de lui demander explicitement de corriger les biais que nous souhaitons éliminer. Cette démarche nécessite une clarification préalable de nos objectifs et priorités.

Transformation des métiers et zones interdites

L'impact de l'IA décisionnelle ne doit pas être envisagé en termes de secteurs ou de postes, mais de décisions spécifiques. Deux tendances se dessinent :

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale
  • L'extension des "territoires conquis" où l'IA prend déjà des décisions (comme le credit scoring)
  • Le développement des "champs de la codécision" où l'IA assiste les décideurs humains (private equity, conseils d'administration)

Cependant, les auteurs identifient des zones où la délégation à l'IA reste problématique : les situations où la manière de décider est plus importante que le résultat lui-même. La justice pénale en est l'exemple paradigmatique : le "théâtre de la justice" (procédures, formes, décor) contribue essentiellement à la légitimité de la décision.

Audit des algorithmes et gouvernance démocratique

Pour garantir le développement responsable de l'IA décisionnelle, les auteurs insistent sur la nécessité d'un audit indépendant des algorithmes, similaire aux autorisations de mise sur le marché des médicaments. Une industrie de l'audit algorithmique émerge progressivement pour offrir cette garantie de fiabilité.

Enfin, l'ouvrage aborde la question cruciale de la gouvernance démocratique. Les auteurs soulignent que l'IA révèle et pourrait amplifier un déficit démocratique préexistant. Cependant, elle offre aussi des outils extraordinaires pour repenser la participation citoyenne à grande échelle, permettant d'imaginer des assemblées citoyennes bien plus vastes et inclusives.

Au-delà des craintes légitimes, Faut-il encore décider ? propose une vision équilibrée et pragmatique de l'intégration de l'IA dans nos processus décisionnels. Les auteurs nous invitent à considérer l'intelligence artificielle non comme une menace pour l'humanité, mais comme une opportunité de repenser fondamentalement comment nous décidons collectivement.