Anthropic admet une fuite de code due à une erreur humaine, sans données sensibles exposées
Anthropic : fuite de code par erreur humaine, pas de données sensibles

Anthropic confirme une fuite accidentelle de code propriétaire de Claude Code

La start-up américaine spécialisée en intelligence artificielle, Anthropic, a officiellement reconnu ce mardi avoir involontairement rendu public une partie du logiciel propriétaire de Claude Code, son assistant de programmation dédié aux développeurs. Cet incident résulte d'une erreur humaine lors de la publication d'une mise à jour, et non d'une faille de sécurité, selon les déclarations de l'entreprise.

Une erreur humaine à l'origine de l'exposition du code

Un porte-parole d'Anthropic a précisé que le problème était lié à la publication de la mise à jour, causée par une erreur humaine. Un fichier interne, révélant une section du code propriétaire de Claude Code, a été intégré par mégarde dans la mise à jour logicielle. Cette anomalie a été rapidement détectée par un jeune développeur vigilant, limitant ainsi la durée d'exposition.

Aucune donnée sensible de clients compromise

L'entreprise basée à San Francisco a fermement assuré qu'aucune donnée sensible de clients, ni aucun identifiant, n'avaient été impliqués ou exposés lors de cet incident. Elle a souligné que la fuite concernait uniquement des éléments de code, préservant ainsi la confidentialité des informations personnelles des utilisateurs.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

Portée limitée de la fuite de code

Le fichier erroné pointait vers une archive contenant près de 2 000 fichiers et 500 000 lignes de code, qui ont été rapidement téléchargés et dupliqués sur GitHub, la plateforme populaire auprès des développeurs. Cependant, le code divulgué se limite à l'architecture interne de l'outil Claude Code, sans inclure les données confidentielles du modèle d'IA sous-jacent, Claude, développé par Anthropic.

Il est important de noter que le code source de Claude Code était déjà partiellement connu, car l'outil avait précédemment fait l'objet de rétro-ingénierie par des développeurs indépendants. Cette antériorité a contribué à réduire l'impact potentiel de l'incident.

Un précédent similaire pour Anthropic

Ce n'est pas la première fois qu'Anthropic est confronté à ce type de mésaventure. En février 2025, une version antérieure de Claude Code avait déjà accidentellement exposé son code source, mettant en lumière les défis récurrents de gestion des mises à jour logicielles dans le secteur de l'intelligence artificielle.

Malgré ces incidents, Anthropic maintient que ses protocoles de sécurité restent robustes, attribuant ces fuites à des erreurs opérationnelles isolées plutôt qu'à des vulnérabilités systémiques.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale