Chargement en cours

Fuite colossale chez Anthropic : le code source de Claude dévoilé

newsinfos.jpeg

Dans le secteur de l’intelligence artificielle, une simple négligence peut avoir des conséquences colossales. Anthropic, l’entreprise derrière l’assistant IA Claude, vient d’en faire l’amère expérience. Une fuite de données massive a révélé l’architecture technique de son produit phare, provoquant une course contre la montre pour limiter les dégâts.

Un fichier oublié provoque une catastrophe informatique

Contrairement aux scénarios catastrophes habituels, aucun espionnage industriel ni piratage sophistiqué n’est à l’origine de cet incident. La responsabilité incombe à un simple fichier .map oublié lors de la publication de la version 2.1.88 de Claude Code sur la plateforme npm.

Ce fichier de 59,8 Mo contenait de quoi reconstituer l’intégralité du code source d’origine. Au total, 512 000 lignes de code réparties sur 1 900 fichiers se sont retrouvées accessibles publiquement, exposant le cœur même de la technologie développée par Anthropic.

Une diffusion incontrôlable malgré une réaction rapide

C’est Chaofan Shou, chercheur chez Solayer Labs, qui a détecté et signalé la faille via le réseau social X. L’alerte a permis à Anthropic de retirer rapidement la version problématique de la plateforme.

Mais le mal était déjà fait. Avant la suppression, plus de 50 000 copies du dépôt avaient été réalisées par des utilisateurs du monde entier. Face à cette prolifération, l’entreprise a été contrainte de lancer plus de 8 000 demandes de retrait DMCA pour tenter d’effacer les traces.

Des secrets technologiques révélés au grand jour

Des innovations pour améliorer les performances

L’analyse du code source a permis de découvrir comment Anthropic a résolu un problème majeur : la tendance des IA à perdre le fil sur de longs projets. L’entreprise a développé deux systèmes propriétaires pour contourner cette limitation technique.

Kairos, l’agent autonome du futur

Parmi les découvertes les plus intrigantes figure le projet Kairos, un agent autonome permanent en développement. Cette fonctionnalité pourrait transformer radicalement l’usage des assistants IA dans un avenir proche.

Des fonctionnalités inattendues et controversées

Le code révèle également des éléments surprenants, comme un système de virtual pets intégré à la console, rappelant les célèbres Tamagotchi. Plus controversé, un « Undercover Mode » permettrait aux employés d’Anthropic d’effacer les traces d’utilisation de l’IA dans leurs historiques de commits.

Claude Mythos, le modèle trop puissant

L’une des révélations les plus spectaculaires concerne l’existence de Claude Mythos, un modèle que l’entreprise juge trop puissant pour être commercialisé. Cette information soulève des questions sur les limites que s’impose Anthropic dans le développement de ses technologies.

Une croissance qui se poursuit malgré la crise

Malgré cet incident embarrassant, Claude poursuit sa progression fulgurante. L’assistant IA a franchi le cap des 11 millions d’utilisateurs quotidiens et continue d’attirer de nouveaux adeptes.

Anthropic travaille activement à transformer Claude en assistant autonome complet. De nouvelles fonctionnalités sont régulièrement déployées, notamment l’importation facilitée depuis ChatGPT et Gemini, ainsi que l’ouverture de la mémoire aux utilisateurs pour une expérience plus personnalisée.

Cette fuite, bien qu’accidentelle, pourrait finalement servir de catalyseur pour renforcer les procédures de sécurité dans l’ensemble de l’industrie de l’IA, où la protection de la propriété intellectuelle devient un enjeu stratégique majeur.

Il suit de près l’évolution des outils d’intelligence artificielle et des innovations numériques. Spécialisé dans les usages concrets de l’IA, il teste, compare et explique les solutions qui transforment la productivité, la création de contenu et l’automatisation au quotidien.

Laisser un commentaire