Anthropic : deux fuites en sept jours — Claude Mythos, le modèle secret, et 500 000 lignes de code exposées

Le laboratoire considéré comme le plus rigoureux de l'industrie IA vient de vivre sa semaine la plus embarrassante. Deux fuites accidentelles en moins de sept jours. Un modèle secret aux capacités qualifiées de "dangereuses". Un demi-million de lignes de code source exposées publiquement. Anthropic, l'entreprise fondée sur la promesse d'une IA sûre et transparente, se retrouve au centre d'une crise qu'elle n'a pas choisie — et qui pose des questions auxquelles toute l'industrie devra répondre.
Anthropic, le laboratoire qui se voulait différent
Pour comprendre le poids de ces révélations, il faut replacer Anthropic dans son contexte. Fondé en 2021 par Dario Amodei, Daniela Amodei et plusieurs anciens chercheurs d'OpenAI, le laboratoire s'est construit sur une philosophie affichée : la sécurité avant la course à la performance. Là où OpenAI faisait du déploiement rapide un avantage concurrentiel, Anthropic défendait une approche plus lente, plus documentée, plus sérieuse.
Cette réputation s'est solidifiée au fil des années. Claude, leur modèle phare, est souvent cité par les équipes techniques comme l'alternative la plus fiable à GPT pour les usages sensibles. L'entreprise publie régulièrement des travaux de recherche sur la sécurité des systèmes IA, a développé des protocoles d'évaluation internes rigoureux, et entretient des relations étroites avec les régulateurs américains et européens.
Valorisation actuelle : plus de 60 milliards de dollars. Investisseurs : Amazon, Google, Spark Capital. Positionnement : le laboratoire "adulte" de l'IA générative.
C'est précisément ce positionnement qui rend les événements de fin mars 2026 si significatifs.
Fuite 1 : Claude Mythos — le modèle qu'Anthropic ne voulait pas montrer
Ce qu'on sait sur Mythos / Capybara
La première révélation est venue de sources multiples simultanément : Fortune, TechCrunch, VentureBeat et InvestorPlace ont tous rapporté, fin mars 2026, l'existence d'un modèle jusqu'alors non annoncé, connu en interne sous les noms de code Claude Mythos et Capybara.
Le modèle n'a jamais été présenté publiquement. Anthropic ne l'avait pas annoncé dans ses roadmaps officielles. Pourtant, selon les informations remontées par ces médias spécialisés, Mythos serait déjà en phase de démonstration restreinte — et ses évaluations internes le qualifieraient de "step change" : une rupture qualitative significative par rapport aux modèles Claude actuels, et non une simple itération incrémentale.
Le terme "step change" n'est pas anodin dans le vocabulaire des laboratoires IA. Il désigne un saut de capacité comparable à celui observé entre GPT-3 et GPT-4, ou entre Claude 2 et Claude 3 Opus. En d'autres termes : un modèle de génération suivante.
Des capacités qualifiées de "dangereuses"
C'est là que la situation devient plus tendue. Les sources citées par la presse américaine indiquent qu'Anthropic aurait identifié chez Mythos des capacités suffisamment préoccupantes pour justifier un briefing secret auprès d'officiels gouvernementaux américains — avant tout déploiement public.
Les capacités évoquées concernent notamment le domaine cyber : la capacité du modèle à comprendre, analyser, voire faciliter des opérations offensives en sécurité informatique à un niveau jugé inédit. Ni Fortune ni TechCrunch n'ont détaillé la nature exacte de ces capacités — probablement parce que leurs sources ont elles-mêmes fait l'objet de consignes de confidentialité.
Anthropic a refusé de commenter les spécificités des informations rapportées, se limitant à confirmer l'existence de ses processus d'évaluation interne sans valider ni infirmer les éléments sur Mythos.
Pourquoi c'est significatif
La décision de briefer des officiels américains en amont d'un lancement public n'est pas nouvelle dans l'industrie. OpenAI et Google DeepMind ont tous deux organisé des sessions similaires avant des déploiements majeurs. Mais la nature de ces briefings — portant sur des capacités considérées comme potentiellement dangereuses — soulève une question que l'industrie préfère généralement ne pas formuler trop clairement :
À partir de quel niveau de capacité un modèle devient-il trop risqué pour être déployé ?
Anthropic a développé pour cela un cadre interne appelé l'"Acceptable Use Policy" combiné à des niveaux d'alerte internes. Si Mythos a atteint un seuil suffisant pour justifier des consultations gouvernementales discrètes, il se situe probablement dans la zone haute de ce cadre.
Fuite 2 : 500 000 lignes de code source sur NPM
Ce qui s'est passé
Quelques jours après les révélations sur Mythos, une deuxième fuite d'une nature très différente a été identifiée. Cette fois, le vecteur n'était pas la presse spécialisée mais le registre public NPM — la plateforme de packages JavaScript et TypeScript utilisée quotidiennement par des millions de développeurs.
Selon les informations disponibles, Anthropic a accidentellement publié sur NPM une version non expurgée d'un package lié à Claude Code, son outil de développement IA intégré aux environnements de programmation. Ce package contenait environ 500 000 lignes de code source — soit une part substantielle de l'architecture interne de l'outil.
Claude Code est l'un des produits les plus stratégiques d'Anthropic pour la monétisation B2B. Concurrent direct de GitHub Copilot et de Cursor, il est intégré dans les workflows de développeurs et d'équipes techniques dans le monde entier. Son architecture interne représente une propriété intellectuelle considérable.
Ce que le code révèle
Les développeurs qui ont analysé le contenu exposé avant sa suppression ont pu documenter plusieurs éléments :
- L'architecture de traitement des prompts : la façon dont Claude Code interprète les instructions de développement et les traduit en suggestions de code.
- Les mécanismes de filtrage et de sécurité : les couches qui empêchent le modèle de générer certains types de code ou de répondre à certaines requêtes sensibles.
- Les intégrations avec les environnements de développement : les points d'entrée API, les hooks d'intégration IDE, les protocoles de communication entre le client et les serveurs Anthropic.
- Des indices sur l'infrastructure backend : certains commentaires et configurations internes donnent des informations sur l'organisation des services cloud d'Anthropic.
Anthropic a supprimé le package dans les heures suivant la découverte. Mais sur NPM, comme sur GitHub, toute publication — même brève — peut être archivée, mirrorée et copiée avant suppression.
Une erreur humaine dans un processus de publication automatisé
Les premières analyses suggèrent qu'il ne s'agit pas d'une attaque externe mais d'une erreur dans un pipeline CI/CD (intégration continue / déploiement continu). Un script de publication automatisé aurait inclus par erreur les sources complètes plutôt qu'une version compilée ou minifiée du package. Ce type d'erreur arrive. Ce qui est inhabituel, c'est qu'elle arrive chez Anthropic — un laboratoire qui fait de la rigueur opérationnelle un argument commercial.
Ce que ces fuites révèlent sur la course aux modèles frontière
La pression de la vélocité
On ne peut pas comprendre ces incidents sans les replacer dans leur contexte compétitif. En 2026, la course entre les grands laboratoires IA s'est intensifiée à un rythme que même les acteurs du secteur décrivent comme insoutenable. OpenAI, Google DeepMind, xAI, Meta AI et Mistral publient des modèles et des mises à jour à une cadence qui impose une pression considérable sur les équipes d'ingénierie.
Dans ce contexte, les processus de validation et de vérification — pourtant centraux dans la culture Anthropic — subissent une pression croissante. Les timelines se compriment. Les revues de sécurité doivent s'adapter à des cycles de développement plus courts. Et des erreurs humaines, qui auraient été détectées dans des conditions normales, passent à travers les mailles.
Ce n'est pas une accusation. C'est une réalité structurelle de l'industrie en ce moment.
Le paradoxe de la sécurité par l'obscurité
Anthropic a toujours défendu une approche de sécurité basée sur la transparence sélective : publier les recherches sur la sécurité tout en maintenant l'opacité sur les capacités les plus avancées des modèles. C'est une position cohérente — mais ces deux fuites illustrent la tension inhérente à cette approche.
Garder Mythos secret tout en le briefant à des officiels gouvernementaux crée nécessairement un cercle de personnes informées. Chaque personne informée est un vecteur potentiel de fuite. La fuite n'est pas venue d'une cyberattaque : elle est venue de la difficulté à maintenir le secret dans un écosystème médiatique où les sources gouvernementales et industrielles se croisent constamment.
La question du contrôle démocratique
Il y a une dimension plus fondamentale à soulever : qui décide qu'un modèle IA est trop dangereux pour être déployé, et selon quels critères ?
Actuellement, cette décision appartient aux laboratoires eux-mêmes, avec une consultation informelle des gouvernements. Il n'existe pas de cadre légal contraignant aux États-Unis imposant des seuils de capacité au-delà desquels un déploiement est interdit ou soumis à autorisation. Le fait qu'Anthropic briefait des officiels américains de façon discrète plutôt que dans le cadre d'un processus réglementaire formalisé dit beaucoup sur l'état de la gouvernance IA en 2026.
Les implications pour la cybersécurité
Le code source exposé : quel risque réel ?
La publication accidentelle de 500 000 lignes de code source de Claude Code pose plusieurs risques concrets :
- Identification des surfaces d'attaque : connaître l'architecture interne d'un outil permet d'identifier plus facilement ses vulnérabilités. Des acteurs malveillants peuvent analyser le code exposé pour trouver des vecteurs d'injection de prompt, des contournements des filtres de sécurité, ou des failles dans les intégrations API.
- Reverse engineering des mécanismes de sécurité : les couches de filtrage de Claude Code, une fois connues, peuvent être ciblées spécifiquement. Ce qui était une boîte noire devient partiellement une boîte blanche.
- Propriété intellectuelle et espionnage industriel : les concurrents — et leurs investisseurs — ont désormais accès à des informations qui auraient normalement nécessité des années de reverse engineering ou des sources internes.
Les capacités cyber de Mythos : un scénario dual-use
Les informations sur les capacités cyber de Mythos soulèvent un autre type de risque. Un modèle capable d'assister des opérations offensives en cybersécurité à un niveau jugé inédit représente un risque dual-use classique : les mêmes capacités qui permettent d'améliorer la défense permettent d'améliorer l'attaque.
La question n'est pas théorique. Les acteurs malveillants — États-nations, groupes criminels organisés, hacktivistes — cherchent activement à utiliser les LLM pour automatiser et améliorer leurs capacités. Un modèle comme Mythos, s'il était accessible sans garde-fous suffisants, représenterait une élévation significative de la menace.
Ce que ça change pour les entreprises et PME françaises
La confiance comme infrastructure
Pour les entreprises françaises qui utilisent les API d'Anthropic — et elles sont de plus en plus nombreuses dans les secteurs juridique, financier, santé et technologique — ces incidents posent une question de confiance opérationnelle.
Utiliser Claude en production, c'est faire confiance à Anthropic pour protéger la confidentialité des données traitées, maintenir la continuité de service, et gérer ses processus internes avec la rigueur qu'elle affiche.
Deux fuites en une semaine ne remettent pas en cause la qualité des modèles. Mais elles interrogent la maturité opérationnelle du laboratoire à un moment où il gère une croissance exponentielle.
Des questions pratiques pour les DSI et CTO
Concrètement, les responsables techniques des PME et ETI françaises qui intègrent des outils basés sur Claude devraient se poser plusieurs questions :
- Les contrats de service avec Anthropic ou les revendeurs incluent-ils des clauses sur la gestion des incidents de sécurité ?
- Les données envoyées aux API sont-elles suffisamment anonymisées pour limiter l'exposition en cas d'incident ?
- La dépendance à un seul fournisseur est-elle raisonnable dans un contexte où même les meilleurs acteurs ont des incidents ?
- Les équipes techniques sont-elles informées de l'exposition du code source de Claude Code, et ont-elles mis à jour leurs évaluations de risque ?
L'opportunité de la diversification
Ces incidents renforcent un argument que les architectes cloud et les consultants IA défendent depuis plusieurs mois : la stratégie multi-modèles n'est pas seulement une question de performance, c'est une question de résilience.
Disposer d'une intégration avec Claude ET avec au moins un autre modèle (GPT-4o, Gemini Ultra, Mistral Large) permet de basculer rapidement en cas d'incident — qu'il s'agisse d'une panne de service, d'un incident de sécurité ou d'une modification des conditions d'utilisation.
Pour les PME françaises en particulier, l'écosystème Mistral représente une alternative sérieuse avec l'avantage supplémentaire de la souveraineté des données sur infrastructure européenne.
Quand Mythos sera lancé officiellement : scénarios prospectifs
Le lancement le plus attendu (et le plus scruté) de 2026
Mythos sera lancé. La question est de savoir quand, dans quelle configuration, et avec quels garde-fous. Plusieurs scénarios sont plausibles :
- Scénario 1 — Le lancement contrôlé : Anthropic déploie Mythos en accès restreint, d'abord pour des partenaires enterprise sélectionnés, avec des conditions d'utilisation renforcées et des mécanismes de monitoring intensifs. Ce scénario est le plus cohérent avec leur culture, mais le plus lent commercialement.
- Scénario 2 — Le lancement accéléré par la compétition : si OpenAI ou Google DeepMind annoncent un modèle comparable dans les prochains mois, Anthropic pourrait accélérer le déploiement de Mythos pour ne pas perdre le leadership sur le segment frontière. Ce scénario augmente les risques d'incidents.
- Scénario 3 — Le lancement sous contrainte réglementaire : les briefings gouvernementaux actuels pourraient déboucher sur l'imposition de conditions de déploiement formelles — voire d'un moratoire temporaire. Ce scénario, jusqu'ici improbable, est désormais légèrement plus plausible dans un contexte politique américain où les questions de sécurité IA sont prises au sérieux.
Ce que Mythos dira sur l'état de l'IA en 2026
Au-delà d'Anthropic, le lancement de Mythos sera un test pour toute l'industrie. Si un modèle avec des capacités cyber jugées dangereuses peut être déployé avec des garde-fous suffisants pour rester utile sans devenir une menace, cela validera l'approche de "sécurité par design" que les laboratoires défendent depuis des années.
Si au contraire le déploiement génère des incidents — utilisation abusive, contournement des filtres, incidents diplomatiques liés aux capacités offensives — le débat sur la gouvernance IA prendra une dimension nouvelle, et probablement législative, dans les mois suivants.
La transparence comme seule stratégie viable
La leçon la plus évidente de cette semaine chez Anthropic est que le secret, à ce stade de développement de l'IA, est un équilibre instable. Les capacités avancées des modèles frontière sont connues d'un cercle de plus en plus large — chercheurs, officiels, journalistes, investisseurs. La fuite n'est jamais une question de "si" mais de "quand" et "comment".
La vraie question pour Anthropic — et pour tous les laboratoires — est de savoir si une communication proactive et structurée ne serait pas, paradoxalement, plus sécurisée qu'un silence qui finit toujours par se rompre dans les pires conditions.
Conclusion
Deux fuites en sept jours. Un modèle secret aux capacités inédites. Un demi-million de lignes de code exposées. Anthropic traverse une semaine qui restera dans l'histoire de l'IA — non pas parce qu'elle révèle une incompétence, mais parce qu'elle illustre avec une clarté inhabituelle les contradictions structurelles d'une industrie qui avance plus vite que ses propres processus de sécurité.
Ce que Mythos représente vraiment, nous ne le saurons pleinement qu'à son lancement officiel. Ce que ces fuites représentent, en revanche, est déjà lisible : la tension entre la course à la performance et l'exigence de sécurité ne se résoudra pas seule. Elle demande des frameworks réglementaires, des processus opérationnels renforcés, et une honnêteté industrielle que l'ensemble du secteur doit encore apprendre à pratiquer.
En attendant, les entreprises qui misent sur l'IA générative — et elles ont raison de le faire — ont intérêt à diversifier leurs dépendances, à durcir leurs contrats, et à rester informées. Parce que dans une industrie qui évolue à cette vitesse, l'ignorance n'est plus une option.
Vous suivez de près l'actualité IA et ses impacts sur les entreprises ? Rejoignez la communauté Addict AI Technology et recevez chaque semaine nos analyses, décryptages et guides pratiques pour naviguer dans l'écosystème IA en toute connaissance de cause.

