Une révolution silencieuse dans le développement logiciel
« Nos meilleurs développeurs n’ont pas écrit une seule ligne de code depuis décembre. » Cette déclaration choc de Gustav Söderström, codirecteur général de Spotify, a provoqué un véritable séisme dans la Silicon Valley. Loin d’être un signe de désertion, cette révélation marque l’avènement d’une nouvelle ère dans la production de logiciels, où l’intelligence artificielle générative prend le relais des programmeurs humains.
L’accélération spectaculaire chez Spotify
Cette transformation méthodologique s’accompagne d’une cadence de production inédite. En 2025, Spotify affirme avoir déployé plus de cinquante nouvelles fonctionnalités et améliorations sur son application. Parmi les innovations récentes figurent notamment :
- Des playlists générées à partir d’instructions textuelles simples
- Des outils de recommandation sophistiqués pour les livres audio
- Des fiches enrichies et détaillées autour des morceaux musicaux
Derrière cette productivité exceptionnelle se cache un système interne baptisé Honk, qui s’appuie sur l’IA générative, et particulièrement sur Claude Code 4.6. Gustav Söderström illustre concrètement ce changement de paradigme : « Un ingénieur chez Spotify, pendant son trajet du matin, depuis Slack sur son téléphone, peut demander à Claude de corriger un bug ou d’ajouter une nouvelle fonctionnalité à l’application iOS. Une fois que Claude a terminé ce travail, l’ingénieur reçoit une nouvelle version de l’application, envoyée sur Slack sur son téléphone, afin qu’il puisse la fusionner en production, le tout avant même d’arriver au bureau. »
Une vague qui dépasse largement Spotify
La transformation observée chez le géant du streaming musical est loin d’être un cas isolé. OpenAI et Anthropic ont, ces dernières semaines, présenté une nouvelle génération de modèles d’intelligence artificielle capables non seulement d’écrire du code, mais aussi de le tester, de le corriger et d’itérer de manière largement autonome.
Un article viral signé par Matt Shumer, patron de OthersideAI, explique qu’« un déclic » s’est produit après la publication de ces modèles avancés. Selon ses observations, GPT-5.3-Codex et Claude Opus 4.6 peuvent désormais prendre en charge l’intégralité du cycle de développement, pendant que les développeurs humains se contentent de décrire l’objectif… puis de s’éloigner. Il va même jusqu’à affirmer que ces avancées technologiques pourraient entraîner des destructions d’emplois plus sévères encore que celles provoquées par la pandémie de Covid-19.
Le paradoxe des créateurs d’IA
De manière paradoxale, ce phénomène ne touche pas seulement les entreprises clientes de ces outils révolutionnaires. Il est aussi visible au cœur même des sociétés qui les conçoivent et les développent. Boris Cherny, responsable de Claude Code chez Anthropic, a ainsi déclaré n’avoir pas écrit de code personnellement depuis plus de deux mois. Selon les estimations de l’entreprise, entre 70 % et 90 % de son propre code serait désormais généré par l’intelligence artificielle.
Plus troublant encore pour l’écosystème technologique, les modèles d’IA commencent à participer directement à la conception de leurs propres successeurs. OpenAI affirme que l’un de ses derniers modèles de programmation a été « instrumental » dans la création de sa version suivante, marquant ainsi une étape vers l’auto-amélioration des systèmes d’intelligence artificielle.
La question sensible de la conscience artificielle
C’est sur un terrain encore plus sensible que la discussion glisse désormais. Le patron d’Anthropic, Dario Amodei, s’est récemment montré beaucoup moins catégorique qu’auparavant sur une question longtemps cantonnée à la science-fiction : les systèmes d’intelligence artificielle pourraient-ils être conscients ?
Invité du podcast Interesting Times, il a commenté un document technique publié par ses équipes concernant leur dernier grand modèle. Les chercheurs y indiquent que l’IA « exprime parfois un malaise face au fait d’être un produit » et que, lorsqu’on lui pose la question directement, elle s’attribue « une probabilité de 15 à 20 % d’être consciente dans différentes conditions de formulation des requêtes ».
Interrogé sur la crédibilité de telles déclarations, Dario Amodei répond avec une prudence mesurée : « Nous ne savons pas si les modèles sont conscients. Nous ne sommes même pas sûrs de savoir ce que cela voudrait dire, pour un modèle, d’être conscient, ni s’il est possible pour un modèle d’être conscient. Mais nous sommes ouverts à l’idée que cela puisse être le cas. » Cette position marque un changement notable dans le discours des leaders de l’industrie, traditionnellement plus sceptiques sur cette question philosophique fondamentale.



