Bras de fer inédit entre Anthropic et le Pentagone sur l’usage militaire de l’IA
La confrontation entre l’intelligence artificielle et le secteur militaire atteint un point de non-retour. Une entreprise majeure de l’IA refuse de céder aux pressions gouvernementales, déclenchant une riposte sans précédent de la part de l’administration américaine. Cette crise révèle les tensions croissantes autour de l’utilisation des technologies d’IA à des fins militaires.
Un refus catégorique face aux exigences militaires
Anthropic, concepteur de l’assistant conversationnel Claude, a opposé une fin de non-recevoir aux demandes du Pentagone. L’entreprise refuse de mettre son intelligence artificielle à disposition de l’armée américaine sans garanties strictes encadrant son utilisation.
Dario Amodei, patron d’Anthropic, a clairement exposé les limites que son entreprise ne franchira pas. Il s’oppose fermement aux systèmes d’armes entièrement autonomes, où aucun être humain ne contrôlerait les décisions d’engagement. La surveillance de masse des citoyens américains constitue l’autre ligne rouge infranchissable.
L’entreprise affirme pourtant sa volonté de coopération sur tous les autres aspects, y compris l’accès à ses technologies sur les réseaux militaires classifiés. Mais ces concessions ne suffisent pas à satisfaire l’appareil militaire.
La réponse cinglante de l’administration Trump
Vendredi à 17h01, le délai imposé par Pete Hegseth, secrétaire à la Défense, arrivait à expiration. Sans compromis en vue, la machine répressive s’est mise en marche avec une rapidité déconcertante.
Donald Trump a publié un message virulent sur Truth Social, ordonnant à toutes les agences fédérales de cesser immédiatement d’utiliser les technologies d’Anthropic. Les structures dépendant de Claude disposent d’un délai de six mois pour trouver des alternatives.
Des accusations d’une violence inédite
Le président américain n’a pas ménagé ses mots. Il a qualifié Anthropic d’entreprise « de gauche radicale » dirigée par des « fous furieux ». Selon lui, les dirigeants mettraient « des vies américaines en danger » et la sécurité nationale « en péril ».
Trump a brandi la menace de « conséquences civiles et pénales majeures » en cas de non-coopération durant la période transitoire. Son message conclut que le sort du pays sera décidé par le commandant en chef, « pas par une entreprise d’IA hors de contrôle ».
Une classification qui change tout
Pete Hegseth a franchi une étape supplémentaire en désignant Anthropic comme « risque pour la chaîne d’approvisionnement de la sécurité nationale ». Cette classification, habituellement réservée à des entités comme Huawei ou Kaspersky, porte des conséquences dévastatrices.
Concrètement, tout sous-traitant du Pentagone se voit interdire toute collaboration avec Anthropic. L’entreprise se retrouve mise au ban de l’écosystème militaro-industriel américain.
Emil Michael, sous-secrétaire à la Défense, a publiquement attaqué Dario Amodei : « It’s a shame that @DarioAmodei is a liar and has a God-complex. He wants nothing more than to try to personally control the US Military and is ok putting our nation’s safety at risk. The @DeptofWar will ALWAYS adhere to the law but not bend to whims of any one for-profit tech… »
Anthropic maintient sa position malgré les menaces
Face à ce déferlement, Dario Amodei reste inflexible. Il a souligné une contradiction flagrante dans le raisonnement gouvernemental : Anthropic serait simultanément un risque sécuritaire et Claude serait indispensable à la sécurité nationale.
« Ces menaces ne changent pas notre position : nous ne pouvons pas, en bonne conscience, accepter leur demande », a déclaré le dirigeant. L’entreprise annonce contester devant les tribunaux la désignation juridiquement infondée qui créerait un précédent dangereux.
OpenAI trouve un compromis avec le Pentagone
Vendredi soir, quelques heures après l’expiration du délai, Sam Altman annonçait sur X un accord entre OpenAI et l’armée américaine. Son entreprise accepte le déploiement de ses modèles sur les réseaux classifiés.
Mais cet accord prévoit des garanties substantielles. La surveillance de masse est expressément interdite. Surtout, une responsabilité humaine reste obligatoire dans tout usage de la force, y compris pour les armes autonomes.
Des conditions similaires à celles d’Anthropic
En interne, Sam Altman a confié que les lignes rouges d’Anthropic correspondaient exactement aux siennes. Il a même demandé au Pentagone d’étendre ces conditions à tous les laboratoires d’IA.
Pete Hegseth a repartagé l’annonce sans commentaire, laissant planer le mystère sur son interprétation de cet accord négocié.
L’industrie technologique se mobilise
Cette crise ne laisse pas indifférent le reste du secteur. Plus de 200 employés de Google ont adressé une lettre à leur direction réclamant des restrictions similaires sur l’usage militaire de Gemini.
Ces développements illustrent la montée des préoccupations éthiques au sein des entreprises technologiques face à la militarisation croissante de l’intelligence artificielle.



Laisser un commentaire