Chargement en cours

Start-up IA défie le gouvernement sur l’utilisation militaire controversée

Entreprise-Tech-Silhouette

Dans un bras de fer inédit entre une entreprise technologique et le gouvernement américain, la start-up spécialisée dans l’intelligence artificielle refuse catégoriquement de céder aux pressions de Washington. L’enjeu ? L’utilisation sans contrainte de sa technologie par les forces armées, y compris pour des applications controversées. Une position de principe qui pourrait coûter cher à l’entreprise californienne.

Un refus catégorique malgré les menaces gouvernementales

La société Anthropic, créatrice de l’IA Claude, maintient sa position face aux exigences du Pentagone. Dario Amodei, le dirigeant de l’entreprise, ne flanche pas : « Ces menaces ne changent pas notre position : en toute conscience, nous ne pouvons pas accéder à leur demande. »

Le bras de fer s’intensifie alors que le ministre de la Défense Pete Hegseth avait fixé un ultimatum expirant le vendredi 27 février à 23h01, heure de Paris. La demande ? Autoriser un accès inconditionnel à la technologie développée par la start-up californienne.

Deux lignes rouges absolues pour l’entreprise

La surveillance de masse des citoyens américains

Anthropic refuse catégoriquement que son intelligence artificielle serve à espionner massivement la population américaine. Pour Dario Amodei, le message est clair : « Utiliser ces systèmes à des fins de surveillance de masse domestique est incompatible avec les valeurs démocratiques. »

Les armes autonomes sans contrôle humain

La seconde ligne rouge concerne le développement d’armements létaux entièrement autonomes. Selon le patron d’Anthropic, les systèmes d’IA les plus sophistiqués ne disposent pas encore de la fiabilité nécessaire pour contrôler des armes mortelles sans supervision humaine.

L’entrepreneur précise sa position : « Nous ne fournirons pas sciemment un produit qui met militaires et civils américains en danger. »

Des sanctions potentiellement lourdes de conséquences

Face à cette résistance, Pete Hegseth envisage des mesures drastiques. Le ministre de la Défense pourrait activer une loi datant de 1950 permettant de contraindre une entreprise privée à produire des biens jugés essentiels à la défense nationale.

Une autre menace plane : l’inscription d’Anthropic sur la liste des sociétés présentant un risque pour les approvisionnements. Cette liste, qui inclut actuellement des entreprises comme Huawei ou Kaspersky, entraîne des restrictions drastiques concernant les contrats gouvernementaux.

Les entreprises figurant sur ce registre voient le gouvernement américain renoncer à utiliser leurs services, ce qui équivaut à une mise à l’écart quasi-totale du marché public.

Une coopération existante mais encadrée

Paradoxalement, l’armée et les services de renseignement américains utilisent déjà la technologie développée par Anthropic pour la défense nationale. Cette collaboration s’effectue toutefois dans un cadre strictement défini par des restrictions éthiques.

Le dirigeant de l’entreprise souligne cette nuance : « Anthropic comprend que c’est le ministère de la Défense, pas les entreprises privées, qui prend les décisions militaires. Cependant, dans un nombre restreint de cas, nous pensons que l’IA peut nuire aux valeurs démocratiques, plutôt que les défendre. »

Une approche éthique revendiquée depuis sa création

Fondée en 2021 par d’anciens collaborateurs d’OpenAI, la start-up californienne s’est toujours distinguée par sa vision éthique de l’intelligence artificielle. Cette posture n’est pas une simple posture face aux pressions gouvernementales.

Début 2026, l’entreprise a publié un document baptisé « Constitution » qui détaille une série d’instructions destinées à encadrer la production de son IA Claude. Ces directives visent notamment à empêcher des actions présentant une dangerosité inappropriée.

Seule contre tous

Le ministère de la Défense avait sollicité l’ensemble de ses fournisseurs en intelligence artificielle pour qu’ils lèvent les restrictions par défaut de leurs modèles. Tous ont accepté, à l’exception notable d’Anthropic concernant les deux cas de figure mentionnés.

Cette position isolée renforce la détermination affichée par l’entreprise, mais l’expose également à des représailles gouvernementales sans précédent dans le secteur technologique américain.

Il est spécialisé dans les outils d’IA appliqués au travail et à l’entrepreneuriat. Automatisation, no-code, assistants intelligents, IA pour les entreprises : il explore les solutions qui font gagner du temps et améliorent l’efficacité. Sa priorité : proposer des conseils pratiques, testés et réellement utiles.

Laisser un commentaire