Chargement en cours

Coup de tonnerre : l’IA Claude bannie par Trump, un séisme pour l’industrie

conflit_administration_AI.png

Une crise sans précédent secoue l’industrie américaine de l’intelligence artificielle. Pour la première fois dans l’histoire du pays, une administration présidentielle ordonne l’interdiction totale d’une IA développée sur le territoire national. Au cœur du conflit : deux lignes rouges éthiques qu’une entreprise refuse catégoriquement de franchir, malgré la pression du Pentagone et de la Maison-Blanche.

Une interdiction présidentielle historique

Donald Trump a pris une décision radicale en ordonnant à l’ensemble des agences fédérales américaines de cesser immédiatement toute utilisation de Claude, le chatbot développé par Anthropic. Cette mesure frappe de plein fouet une entreprise valorisée à 380 milliards de dollars et qui s’apprêtait à entrer en bourse.

Le Pentagone a franchi un cap supplémentaire en classifiant Anthropic comme « risque pour la chaîne d’approvisionnement de la sécurité nationale ». Cette étiquette était jusqu’alors exclusivement réservée à des sociétés étrangères comme Huawei, jamais à une entreprise américaine d’intelligence artificielle.

Deux garde-fous non négociables

Le bras de fer trouve son origine dans un refus catégorique. Dario Amodei, dirigeant d’Anthropic, a opposé une fin de non-recevoir aux demandes du Pentagone qui exigeait un accès total et sans restriction à Claude pour tout objectif légal.

Face à cette exigence, le patron d’Anthropic a posé deux limites strictes : « Pas de surveillance de masse des citoyens américains et pas d’armes autonomes sans intervention humaine ». Ces deux principes sont devenus la pierre d’achoppement d’un conflit qui a duré plusieurs mois.

Un contrat de 200 millions de dollars en jeu

L’enjeu financier paraît considérable : un contrat signé en juin 2024 avec le Pentagone, représentant jusqu’à 200 millions de dollars. Anthropic était d’ailleurs devenue la première entreprise d’IA à déployer un modèle sur les réseaux classifiés de l’armée américaine.

Pourtant, ce montant ne pèse guère dans les comptes d’Anthropic. Ce contrat militaire ne représente qu’une fraction des 14 milliards de dollars de chiffre d’affaires annuel de l’entreprise.

Des négociations vouées à l’échec

Les discussions se sont étendues sur plusieurs mois, impliquant Emil Michael, secrétaire adjoint à la Défense, et Pete Hegseth, secrétaire à la Défense. Une rencontre entre ce dernier et Dario Amodei s’est déroulée dans une atmosphère cordiale, mais sans aboutir à un compromis.

Le Pentagone a finalement envoyé une « offre finale » accompagnée d’un ultimatum fixé au vendredi 28 février, 17h01. La réponse d’Anthropic ne s’est pas fait attendre : « ces menaces ne changent pas notre position, nous ne pouvons pas en conscience accéder à cette demande ».

L’accusation de « woke » brandie par Trump

Sur Truth Social, Donald Trump a qualifié Anthropic de « woke cinglés » qui « tentent de dicter à l’armée comment se battre ». Pete Hegseth a emboîté le pas sur X en officialisant la classification de l’entreprise comme risque sécuritaire.

Cette attaque vise directement la « conception constitutionnelle » de Claude, qui intègre des règles pour rendre l’IA utile, honnête et inoffensive. Ces filtres stricts rejettent les discours de haine, qu’ils soient homophobes, transphobes, racistes, antisémites ou discriminatoires.

Pour les détracteurs d’Anthropic, cette vigilance morale constitue une dérive « woke », terme péjoratif désignant les valeurs progressistes et la justice sociale dans le vocabulaire conservateur américain.

Des conséquences potentiellement dévastatrices

La classification du Pentagone entraîne des effets immédiats. Tout prestataire, fournisseur ou partenaire travaillant avec l’armée américaine se voit interdire toute collaboration avec Anthropic. Une période de transition de six mois permettra au Pentagone de migrer vers d’autres solutions.

La menace d’un effet domino

Le véritable danger réside dans un potentiel effet domino. Anthropic dépend d’Amazon, Microsoft et Google pour son infrastructure cloud. Ces trois géants technologiques détiennent des contrats militaires majeurs et pourraient être contraints de rompre leurs liens avec Anthropic.

Des juristes alertent sur la création d’un « précédent dangereux », cette classification diluant un outil jusqu’alors réservé aux entreprises en lien étroit avec des gouvernements étrangers.

Une bataille juridique annoncée

Anthropic ne compte pas baisser les bras. L’entreprise a annoncé qu’elle contestera cette classification devant les tribunaux, estimant que la loi (10 USC 3252) limite cette mesure aux contrats du Pentagone exclusivement.

Selon les avocats d’Anthropic, cette restriction ne s’applique pas aux relations commerciales avec d’autres clients. Les utilisateurs et entreprises ne travaillant pas avec le Pentagone ne seraient donc pas concernés par l’interdiction.

Dario Amodei a souligné que la valorisation et le chiffre d’affaires de l’entreprise ont augmenté depuis le début du conflit avec le Pentagone, démontrant une certaine résilience face à la pression gouvernementale.

Toute l’industrie de l’IA face au même dilemme

Cette crise ne concerne pas uniquement Anthropic. Sam Altman, patron d’OpenAI, a confirmé dans un mémo interne que son entreprise négocie un contrat avec le Pentagone en imposant les mêmes restrictions sur la surveillance de masse et les armes autonomes.

Plus de 100 employés de Google ont signé une lettre demandant que des limites identiques soient appliquées à Gemini. Des salariés de Microsoft et Amazon ont formulé des demandes similaires, témoignant d’un mouvement de fond au sein des grandes entreprises technologiques.

La course aux alternatives

Le Pentagone accélère ses discussions avec Google et OpenAI pour intégrer leurs modèles sur les réseaux classifiés. xAI d’Elon Musk a déjà signé un accord autorisant l’armée à utiliser Grok.

Toutefois, les responsables militaires admettent que Grok n’atteint pas le niveau de Claude. La transition vers une solution de remplacement pourrait donc prendre un temps considérable, laissant l’armée américaine dans une situation délicate.

Il suit de près l’évolution des outils d’intelligence artificielle et des innovations numériques. Spécialisé dans les usages concrets de l’IA, il teste, compare et explique les solutions qui transforment la productivité, la création de contenu et l’automatisation au quotidien.

Laisser un commentaire