Fraude massive : 24 000 faux comptes démasqués dans le scandale de l’IA Anthropic
L’intelligence artificielle est devenue un champ de bataille économique et technologique. Les grandes entreprises se livrent une guerre sans merci pour dominer ce secteur stratégique. Une nouvelle affaire vient d’éclater, impliquant des acteurs majeurs et soulevant des questions de sécurité et d’éthique.
Une fraude massive révélée par Anthropic
Le créateur de l’IA Claude, Anthropic, a porté de graves accusations contre trois sociétés chinoises. Dans un billet publié le 23 février, l’entreprise américaine dénonce une opération d’envergure visant à dupliquer les capacités de son modèle.
Selon les révélations, DeepSeek, Moonshot AI et MiniMax auraient orchestré une vaste campagne de collecte de données. Ces laboratoires auraient mis en place plus de 24 000 comptes frauduleux pour interroger massivement Claude.
L’ampleur de l’opération est impressionnante : plus de 16 millions d’échanges auraient été générés avec l’IA d’Anthropic. L’objectif présumé serait d’extraire les capacités du modèle pour entraîner et améliorer leurs propres systèmes.
Trois entreprises visées avec des stratégies différentes
DeepSeek et les questions politiquement sensibles
DeepSeek aurait réalisé environ 150 000 échanges avec Claude. L’entreprise aurait ciblé spécifiquement les capacités de raisonnement du modèle américain.
Plus troublant encore, ces interactions auraient servi à produire des reformulations considérées comme « sûres » de requêtes politiquement délicates. Les sujets abordés concerneraient notamment les dissidents ou le Parti communiste chinois.
Moonshot AI et l’expertise technique
Le créateur des modèles Kimi aurait mené 3,4 millions d’échanges avec l’IA d’Anthropic. Ces interactions se seraient concentrées sur des domaines techniques pointus.
Les capacités visées incluent le raisonnement agentique, la programmation informatique et la vision par ordinateur. Des compétences essentielles pour développer des systèmes d’IA performants.
MiniMax et la plus grande campagne détectée
MiniMax représenterait le cas le plus massif avec 13 millions d’échanges recensés. L’entreprise se serait focalisée sur le code et l’orchestration d’outils.
Anthropic affirme avoir détecté cette campagne en temps réel, permettant d’identifier l’ampleur du phénomène pendant son déroulement.
La technique de la distillation expliquée
Le procédé utilisé porte le nom de « distillation ». Cette méthode consiste à soumettre un modèle puissant à des volumes considérables de requêtes ciblées.
Les réponses obtenues servent ensuite à entraîner un modèle concurrent. Cette technique permet de reproduire les capacités d’une IA sans avoir accès à son architecture interne ni à ses données d’entraînement originales.
Les attaques auraient contourné les conditions d’utilisation d’Anthropic ainsi que ses restrictions géographiques. Un réseau de proxys commerciaux aurait permis de gérer simultanément plus de 20 000 comptes frauduleux.
Comment Anthropic a identifié les responsables
L’attribution des attaques repose sur plusieurs éléments techniques. Anthropic a analysé des corrélations d’adresses IP et des métadonnées de requêtes pour remonter jusqu’aux entreprises suspectées.
Pour Moonshot AI, l’identification s’appuie également sur des profils publics de cadres dirigeants. Ces éléments convergents ont permis d’établir un faisceau de preuves pointant vers les trois sociétés chinoises.
D’autres géants de l’IA visés par des pratiques similaires
Anthropic n’est pas la seule entreprise à dénoncer ces méthodes. OpenAI a transmis un mémo au Congrès américain le 12 février, formulant des allégations similaires contre DeepSeek.
Google a également signalé des attaques comparables visant son modèle Gemini. Ces révélations multiples suggèrent une pratique potentiellement généralisée dans l’industrie.
Un enjeu de sécurité nationale selon Anthropic
L’entreprise américaine présente cette affaire comme une question de « sécurité nationale ». Selon elle, les modèles distillés perdraient les garde-fous de sûreté intégrés aux systèmes développés aux États-Unis.
Ce positionnement sert également le plaidoyer d’Anthropic. L’entreprise milite en faveur de contrôles à l’exportation de puces plus stricts vers la Chine.
Une ironie qui n’échappe pas aux observateurs
Anthropic pratique elle-même la distillation sur ses propres modèles. Ses données d’entraînement proviennent en grande partie du web, souvent sans consentement explicite des auteurs originaux.
L’entreprise établit néanmoins une distinction claire. Elle considère sa distillation interne comme légitime, tandis que l’extraction non autorisée chez un concurrent constituerait une violation contractuelle des conditions d’utilisation.
Cette position est jugée juridiquement fondée selon Anthropic, puisqu’il y aurait bien violation des termes d’usage acceptés lors de la création des comptes.
Un silence assourdissant des entreprises accusées
À ce jour, aucun des trois laboratoires chinois n’a répondu publiquement aux accusations. DeepSeek, Moonshot AI et MiniMax n’ont pas communiqué sur cette affaire.
Ce silence laisse de nombreuses questions en suspens sur la réalité des pratiques dénoncées et les éventuelles conséquences juridiques ou diplomatiques de cette affaire.



Laisser un commentaire