Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Anthropic révèle son code source puis envoie plus de 8000 demandes de retrait de copyright, la réputation de « sécurité avant tout » confrontée à sa semaine la plus embarrassante
Anthropic, dont le cœur de marque est « la sécurité de l’IA », traverse la semaine la plus embarrassante depuis sa création.
Auteur : Deep Tide TechFlow
Anthropic a, à cause d’une erreur de configuration lors d’une publication npm, rendu accidentellement publique l’intégralité du code source de son produit le plus rentable, Claude Code. En quelques heures, quelque 512 000 lignes de code TypeScript ont été mises en miroir, disséquées et réécrites avec l’aide de l’IA en versions Python et Rust par des dizaines de milliers de développeurs. Anthropic a ensuite adressé à GitHub une demande de retrait pour violation de droits d’auteur (DMCA), touchant environ 8100 dépôts de code, mais, en raison d’un effet de bord ayant frappé de nombreux projets sans lien, la communauté s’est fortement insurgée. Finalement, Anthropic a été forcée de retirer la majorité des demandes, ne conservant que le retrait concernant 1 dépôt et 96 forks. Il s’agit de la deuxième grande fuite survenue en une semaine pour Anthropic, seulement cinq jours après l’incident de divulgation d’informations sur son modèle Mythos.
Anthropic, dont le cœur de marque est « la sécurité de l’IA », traverse la semaine la plus embarrassante depuis sa création.
Selon un article du « Wall Street Journal » du 1er avril, Anthropic, lors d’une mise à jour de version régulière du 31 mars, a, à cause d’une erreur de manipulation humaine dans le processus de build, publié l’intégralité du code source de Claude Code, en même temps que le paquet npm. Chaofan Shou, chercheur en sécurité, a publié à 4 h 23 (heure de la côte Est des États-Unis) sur la plateforme X un lien de téléchargement ; la fréquentation du post a rapidement dépassé 21 millions. En quelques heures, le code a été mis en miroir sur GitHub et a reçu des dizaines de milliers d’étoiles. Un développeur coréen, Sigrid Jin, a même réécrit tout le dépôt en version Python à l’aide d’outils d’IA avant que le jour ne se lève : le projet a récolté 50 000 étoiles GitHub en deux heures, et a très probablement établi un record de la plus forte croissance de l’histoire de cette plateforme.
Un porte-parole d’Anthropic a confirmé le fait de la fuite à CNBC, en disant : « Il s’agit d’un problème de packaging de publication causé par une erreur humaine, et non d’une vulnérabilité de sécurité. Aucune donnée ou information sensible de clients, ni aucun identifiant, n’a été impliqué ou exposé. »
** Un paramètre de configuration manquant a exposé 512 000 lignes de code source essentielles **
La cause technique de la fuite n’est pas compliquée. Claude Code est construit sur Bun (un outil d’exécution JavaScript acquis par Anthropic fin 2025) ; par défaut, Bun génère des fichiers de debug source map. L’équipe de publication, lors du push du paquet npm, n’a pas exclu ce fichier dans la configuration .npmignore, ce qui a conduit à ce qu’un fichier de source map de 59,8 Mo soit mis en ligne avec la version Claude Code 2.1.88. Ce fichier contient le contenu intégral d’environ 1900 fichiers TypeScript sources, soit au total environ 512 000 lignes de code : lisible, avec des commentaires, sans aucune obfuscation.
Le responsable de Claude Code, Boris Cherny, a reconnu : « Dans notre processus de déploiement, il y a quelques étapes manuelles, dont une n’a pas été exécutée correctement. » Il a ajouté que l’équipe a corrigé le problème et qu’elle est en train d’ajouter davantage de contrôles automatisés, tout en soulignant que ce type d’erreur renvoie à des problèmes de processus ou d’infrastructure, et non à la responsabilité d’une personne.
Ce n’est pas la première fois. En février 2025, une fuite presque identique de source map avait déjà exposé le code source de versions précoces de Claude Code. Le même type d’incident s’est reproduit sur 13 mois, faisant naître des doutes à l’extérieur quant à la maturité opérationnelle de cette entreprise, évaluée à environ 380 milliards de dollars et en cours de préparation à une introduction en bourse (IPO).
** Ce que les développeurs ont découvert dans le code divulgué **
Le dépôt de code divulgué équivaut à une feuille de route produit qu’Anthropic n’avait jamais prévu de rendre publique. D’après l’analyse de VentureBeat et de plusieurs développeurs, le code contient 44 commutateurs de fonctionnalités (feature flag), dont plus de 20 sont des fonctionnalités déjà développées mais encore non publiées.
Parmi les éléments les plus commentés, on trouve notamment : un mode de processus de garde autonome nommé « KAIROS », qui permet à Claude Code de travailler en tant qu’agent autonome en arrière-plan de manière continue lorsque l’utilisateur est en veille, avec la capacité de corriger périodiquement des erreurs, d’exécuter des tâches et d’envoyer des notifications push aux utilisateurs ; une architecture de « mémoire auto-cicatrisante » en trois couches, via un processus d’intégration de la mémoire appelé « dreaming », qui fusionne en arrière-plan des observations dispersées et élimine les contradictions logiques ; et enfin un système complet de coordination multi-agents, capable de transformer Claude Code d’un simple agent en un coordinateur capable de générer en parallèle, de diriger et de gérer plusieurs agents de travail.
La découverte la plus controversée est un fichier nommé undercover.ts. D’après The Hacker News, ce fichier contient environ 90 lignes de code : lorsque des employés d’Anthropic utilisent Claude Code pour soumettre du code à des projets open source, il injecte des invites système, indiquant à Claude de ne jamais révéler qu’il s’agit d’une IA, et de supprimer toutes les mentions Co-Authored-By. Le code indique : « Vous exécutez une mission d’infiltration dans un dépôt de code public/open source. Votre message de commit, le titre du PR et le corps du PR ne doivent contenir aucune information interne d’Anthropic. Ne dévoilez pas votre identité. »
De plus, le code inclut un marqueur ANTI_DISTILLATION_CC qui injecte des définitions d’outils falsifiées dans les requêtes d’API, dans le but de contaminer des données d’entraînement que des concurrents pourraient intercepter. On retrouve également dans le code des codes internes de modèles d’Anthropic : Capybara correspond à un nouveau niveau de modèles encore non publié, et Fennec correspond à l’Opus 4.6 existant. Cela recoupe les informations sur le modèle Mythos divulguées seulement cinq jours plus tôt par Anthropic, à la suite d’une erreur de configuration du CMS.
Le fondateur de l’entreprise de cybersécurité Code Wall, Paul Price, a déclaré à Business Insider que cette fuite « plus qu’un dommage réel, c’est une situation embarrassante. La valeur réelle réside dans les poids des modèles internes, qui ne se sont pas retrouvés exposés ». Mais il a aussi noté que Claude Code est « l’une des architectures d’outils d’agents la mieux conçues actuellement ; maintenant, on peut voir comment ils résolvent ces problèmes difficiles », ce qui présente une valeur informationnelle évidente pour les concurrents.
** 8100 dépôts frappés par erreur : le « fiasco » du retrait DMCA déclenche une réaction encore plus forte **
Après la propagation du code, Anthropic a rapidement soumis à GitHub une demande de retrait des droits d’auteur selon le Digital Millennium Copyright Act (DMCA) des États-Unis. D’après les registres publics de GitHub, cette demande a d’abord touché environ 8100 dépôts de code. Le problème, c’est que les dépôts retirés ne contenaient pas seulement des miroirs du code divulgué : ils incluaient aussi des forks légitimes des dépôts officiels de Claude Code, publiés publiquement par Anthropic elle-même.
De nombreux développeurs ont exprimé leur colère sur la plateforme X. Le développeur Danila Poyarkov a rapporté qu’en ne faisant que fork le dépôt public d’Anthropic, il avait déjà reçu une notification de retrait. Un autre utilisateur, Daniel San, a reçu un e-mail de GitHub indiquant que le dépôt retiré ne contenait que des exemples de compétences et de la documentation, sans aucun lien avec le code divulgué. Un développeur a résumé la situation de façon directe : « Les avocats d’Anthropic viennent à peine de se réveiller et s’attaquent déjà à mon dépôt en le faisant retirer. »
Face à la réaction de la communauté, Anthropic a partiellement retiré sa demande le 1er avril. D’après les logs de retrait sur GitHub, Anthropic a réduit la portée du retrait à 1 dépôt (nirholas/claude-code) et aux 96 URL de forks listées séparément dans la notification initiale ; pour le reste, environ 8000 dépôts, l’accès a été rétabli par GitHub.
Un porte-parole d’Anthropic a déclaré à TechCrunch : « Les dépôts spécifiés dans la notification appartiennent à un réseau de forks reliés à nos dépôts publics Claude Code ; ainsi, les dépôts touchés dépassaient les attentes. Nous avons retiré toutes les notifications sauf celles concernant un seul dépôt ; GitHub a rétabli l’accès aux forks impactés. »
** Le code est archivé à jamais sur des plateformes décentralisées : l’effet du DMCA est limité **
L’action d’Anthropic en matière de droits d’auteur se heurte à un dilemme fondamental : le code s’est déjà propagé de manière irréversible.
D’après un rapport de Decrypt, la plateforme décentralisée Gitlawb a mis en miroir le code source original complet, avec la note : « Ne sera jamais retiré ». Le DMCA s’applique aux plateformes centralisées (comme GitHub) car ces dernières doivent s’y conformer, mais il ne peut pas être imposé à l’infrastructure décentralisée. Dans les heures qui ont suivi la fuite, le code s’est déjà retrouvé exposé de façon permanente dans les faits grâce à un nombre suffisant de miroirs et à des types variés d’infrastructures.
Plus ironique encore : le développeur coréen Sigrid Jin a utilisé un outil d’orchestration d’IA, oh-my-codex, pour réécrire tout le dépôt, en passant de TypeScript à Python ; le nom du projet est claw-code. Le fondateur de The Pragmatic Engineer, Gergely Orosz, a souligné sur X qu’il s’agit d’une « réécriture en chambre propre » (clean-room rewrite), constituant une œuvre de création indépendante ; par conception, c’est quelque chose que le DMCA ne peut pas atteindre. Si Anthropic fait valoir que le code réécrit par IA reste une atteinte, cela affaiblirait précisément la logique de défense centrale des entreprises d’IA dans des procès pour droits d’auteur liés aux données d’entraînement — à savoir que les sorties générées par l’IA à partir d’entrées protégées par le droit d’auteur constituent un usage raisonnable.
Une posture de droits d’auteur embarrassante : se contredit-on ou est-ce juridiquement nécessaire ?
La tension la plus suivie par la communauté dans cette affaire réside dans la contradiction de la position sur les droits d’auteur. Anthropic a été condamnée par un tribunal en septembre 2025 à verser 1,5 milliard de dollars de dommages et intérêts pour avoir entraîné Claude avec des livres piratés et une bibliothèque clandestine. Reddit a poursuivi Anthropic à partir de juin 2025 pour avoir collecté du contenu généré par les utilisateurs sans autorisation afin de former ses modèles. Une entreprise déjà impliquée dans plusieurs procès liés aux droits d’auteur sur les données d’entraînement, qui se tourne ensuite vers le droit d’auteur pour protéger son propre code, la réaction de la communauté était prévisible.
Un commentaire très apprécié sur Slashdot résume directement cette émotion : « “Ce que nous publions et qui gagne de l’argent avec des choses volées… comment osez-vous voler !” — c’est vraiment une posture. » Un autre utilisateur estime toutefois que, d’un point de vue de stratégie juridique, l’action DMCA n’est pas dénuée de logique : « Si Anthropic veut ensuite poursuivre la responsabilité d’autres entreprises qui utiliseraient son code, et qu’elles n’ont même pas tenté de faire retirer les distributeurs, alors ce sera difficile à défendre devant un tribunal. »
Cette controverse touche également une question juridique de pointe : la titularité du droit d’auteur pour le code généré par IA. D’après les divulgations publiques antérieures de Gartner et d’Anthropic, environ 90 % du code de Claude Code est généré par l’IA. En mars 2025, un tribunal fédéral américain a statué que les œuvres générées par IA ne bénéficient pas de protection du droit d’auteur faute d’une identité d’auteur humain ; la Cour suprême a, en mars 2026, refusé d’examiner le recours. Si la majorité du code de Claude Code est effectivement écrite par Claude lui-même, la thèse d’Anthropic en matière de droits d’auteur comporte alors, sur le plan juridique, une incertitude substantielle.
** Deux fuites en une semaine : alerte sur la sécurité opérationnelle à la veille de l’IPO **
La fuite de code source est survenue à seulement cinq jours de la précédente affaire de fuite d’Anthropic. Le 26 mars, « Fortune » a rapporté qu’Anthropic, à cause d’une erreur de configuration de son système de gestion du contenu, avait laissé exposés dans un cache de données publiquement indexable près de 3000 documents internes non publiés, contenant des informations détaillées sur le futur modèle Claude Mythos. Les deux incidents ont été attribués à des « erreurs humaines ».
Les calendriers de ces incidents sont sensibles. En février 2026, Anthropic a finalisé une levée de fonds de 30 milliards de dollars (tour G), avec une valorisation de 3800 milliards de dollars, et selon des informations, prépare une IPO dès le mois d’octobre 2026, dont le montant pourrait dépasser 600 milliards de dollars. Goldman Sachs, JPMorgan et Morgan Stanley ont déjà pris contact dans la phase initiale. Les revenus annualisés de Claude Code ont dépassé 2,5 milliards de dollars, ce qui en fait l’un des moteurs de revenus les plus importants de l’entreprise. TechCrunch indique que, pour une entreprise en préparation d’introduction en bourse, la divulgation du code source signifie presque inévitablement qu’elle fera face à des poursuites des actionnaires.
Dans son analyse de l’affaire, VentureBeat a posé une question plus incisive : en mars, Anthropic a connu une dizaine d’incidents, mais n’a publié qu’un seul rapport post-événement. De plus, un système de surveillance tiers a détecté les pannes 15 à 30 minutes plus tôt que la page d’état d’Anthropic elle-même. Pour une entreprise fonçant vers les marchés publics avec une valorisation de 3800 milliards de dollars, sa transparence opérationnelle et sa maturité sont-elles réellement à la hauteur de cette valorisation ? Les investisseurs doivent en juger par eux-mêmes.