IA éthique : Amodei défie Washington et choisit l’intégrité sur les contrats
Dans la Silicon Valley, les relations entre géants de l’intelligence artificielle et pouvoir politique n’ont jamais été aussi tendues. Au cœur de cette tempête : un refus catégorique qui pourrait coûter des milliards et redéfinir l’avenir de l’IA éthique face aux impératifs militaires américains.
Un refus qui fait trembler la tech américaine
Dario Amodei, cofondateur et dirigeant d’Anthropic, a opposé une fin de non-recevoir spectaculaire au gouvernement américain. L’entrepreneur refuse catégoriquement que son IA générative Claude soit employée pour de la surveillance de masse ou la conception d’armes létales autonomes.
Fin février, il déclarait sur CBS : « Franchir ces lignes est contraire aux valeurs américaines ! ». Une prise de position courageuse qui n’a pas manqué de provoquer une réaction immédiate de l’administration.
La riposte cinglante du Pentagone
La réponse de Washington ne s’est pas fait attendre. Le 5 mars 2026, le ministère de la Défense a classifié Anthropic comme un « risque pour la chaîne d’approvisionnement ». Cette décision interdit à l’entreprise tout contrat avec des sociétés travaillant pour la défense américaine.
Dans la foulée, le Pentagone a signé un accord avec OpenAI, la société mère de ChatGPT, pour remplacer Claude. Un coup dur pour Anthropic, qui voyait jusqu’alors son outil privilégié par les militaires.
Un memo interne révélateur
Contraint à la discrétion, Dario Amodei a repris les négociations avec l’administration. Mais un document interne ayant fuité révèle l’ampleur de sa frustration.
Dans ce memo, il explique qu’Anthropic subit une discrimination politique : l’entreprise n’a ni financé Donald Trump, ni « chanté les louanges du style dictatorial [de Trump] (contrairement à Sam [Altman, patron d’OpenAI]) ». Une allusion directe à la proximité de son concurrent avec le pouvoir.
Portrait d’un idéaliste dans la Silicon Valley
À 42 ans, Dario Amodei incarne une vision singulière dans l’univers impitoyable de la tech. Ce physicien formé à Caltech, Princeton et Stanford défend une IA « alignée » avec l’intérêt général et la démocratie.
Né en 1983 à San Francisco, il a brièvement travaillé chez Baidu puis Google avant de rejoindre OpenAI en 2016, lorsque l’organisation était encore à but non lucratif.
Les dangers de l’IA selon Amodei
L’entrepreneur a publié un essai alarmant sur les dangers potentiels d’une IA puissante. Il y annonce une période qui « mettra à l’épreuve notre identité en tant qu’espèce », évoquant même le risque de « l’extermination de l’humanité ».
Il redoute particulièrement que l’essor de l’IA n’aggrave les inégalités. Selon lui, les milliardaires des Big Tech « devraient être prêts à renoncer à leur richesse et à leur pouvoir ».
Une philanthropie qui va au-delà des mots
Contrairement à beaucoup de ses pairs, Amodei ne se contente pas de déclarations d’intention. Avec sa sœur Daniela Amodei, cofondatrice d’Anthropic, ils se sont engagés à donner 80 % de leur fortune à la philanthropie.
Chacun possède environ 7 milliards de dollars, une richesse qu’ils considèrent comme une responsabilité plutôt qu’un privilège.
La rupture avec OpenAI
C’est précisément le « virage mercantile » d’OpenAI qui a poussé Amodei à quitter l’entreprise. En 2021, il fonde Anthropic avec plusieurs collègues, dont sa sœur, déterminé à construire une alternative éthique.
La rivalité entre Dario Amodei et Sam Altman est désormais frontale. Mi-février 2026, lors du sommet de l’IA de New Delhi, les deux hommes ont même refusé de se tenir la main sur une photo officielle avec le Premier ministre indien Narendra Modi.
Claude, un succès né de la controverse
Paradoxalement, la « rébellion anti-Trump » d’Amodei a profité à Claude. L’application a enregistré de nombreuses désinstallations de ChatGPT en sa faveur, prenant provisoirement la tête des téléchargements d’applis d’IA sur l’App Store d’Apple.
Auparavant, Claude était la première plateforme admise sur le « cloud souverain » américain avec accès aux documents classifiés. Elle était très appréciée du Pentagone.
Un outil militaire stratégique
L’IA d’Anthropic a été utilisée pour des opérations sensibles : planifier l’enlèvement du président vénézuélien Nicolas Maduro ou mener des frappes aériennes américaines en Iran.
Si le contrat avec la défense américaine ne représentait « que » 200 millions de dollars, l’entreprise ne peut se permettre d’être considérée comme « ennemie » par Trump.
Vers un compromis inévitable ?
Les militaires américains souhaitent conserver cet outil performant. Anthropic, de son côté, prévoit des revenus de 18 milliards de dollars (15,5 milliards d’euros) cette année, en hausse de 20 %.
L’entreprise est valorisée sur le papier à plus de 380 milliards de dollars (328 milliards d’euros). Avec de tels enjeux financiers et stratégiques, l’heure semble au compromis dans cette guerre de l’IA qui dépasse désormais le cadre purement technologique.



Laisser un commentaire