Google : fronde massive contre des projets d’IA militaire controversés
Les géants de la tech se retrouvent à nouveau au cœur d’une bataille éthique. Alors que l’intelligence artificielle s’impose comme un outil stratégique pour les armées, plusieurs centaines de salariés de Google sonnent l’alarme. Leur crainte ? Que leurs travaux innovants ne deviennent des armes sans contrôle ni transparence.
Une mobilisation interne sans précédent
Près de 950 employés de Google ont uni leurs voix dans une lettre ouverte adressée à Sundar Pichai, CEO d’Alphabet. À leurs côtés, 102 salariés d’OpenAI ont également apposé leur signature sur ce manifeste contestataire.
Parmi les signataires figurent des profils variés : simples employés, cadres dirigeants, vice-présidents et ingénieurs spécialisés de Google DeepMind. Tous réclament l’abandon immédiat des discussions avec le Pentagone concernant l’utilisation des modèles d’IA dans des environnements classifiés.
Les dangers d’une technologie sans garde-fou
Les salariés mobilisés ne mâchent pas leurs mots. « En tant que personnes travaillant sur l’IA, nous savons que ces systèmes peuvent concentrer le pouvoir et qu’ils commettent des erreurs », avertissent-ils dans leur courrier.
Leur principale inquiétude porte sur l’absence de mécanismes permettant de garantir un usage éthique. Les termes du potentiel accord autoriseraient le département de la Défense à exploiter ces technologies « à toutes fins légales », une formulation jugée bien trop floue.
Pour les signataires, accepter de déployer ces systèmes dans des contextes militaires classifiés reviendrait à ouvrir la boîte de Pandore. Impossible, selon eux, de vérifier que ces outils ne serviront pas à des fins nuisibles ou contraires aux valeurs de l’entreprise.
D’autres acteurs refusent la ligne rouge
Google n’est pas le seul acteur majeur de l’IA confronté à ces dilemmes. La start-up Anthropic a récemment refusé les conditions proposées par l’armée américaine pour l’utilisation de son modèle dans des opérations militaires.
Cette décision a conduit à l’échec de négociations portant sur un contrat de 200 millions de dollars. Un choix éthique assumé, malgré les conséquences financières.
De son côté, OpenAI a choisi une voie médiane en renégociant les termes de sa collaboration. L’entreprise a obtenu l’interdiction formelle d’utiliser ses modèles pour de la surveillance de masse ou le suivi ciblé de citoyens américains.
Un passif qui ressurgit
Cette fronde n’est pas une première chez Google. En 2018, une mobilisation similaire avait éclaté lorsque l’entreprise s’était engagée dans des projets militaires controversés.
Suite à cette crise, la direction avait pris des engagements clairs : ne pas développer de technologies causant des dommages, ni concevoir des outils destinés à des armes ou des systèmes de surveillance invasifs.
Aujourd’hui, ces principes éthiques semblent remis en question, alimentant les craintes des équipes techniques face à une possible évolution de la doctrine de l’entreprise.
Une réputation en jeu
Les employés mobilisés ne se contentent pas d’alerter sur les risques techniques. Ils évoquent également les conséquences pour l’image de Google à l’échelle mondiale.
« Faire le mauvais choix aujourd’hui causerait des dommages irréparables à la réputation, à l’activité et au rôle de Google dans le monde », martèle la lettre ouverte.
Les signataires rappellent que « des vies humaines sont déjà perdues et des libertés civiles mises en danger » en raison de mésusages des technologies. Un argument choc pour appuyer leur demande de transparence et de responsabilité.
Cette bataille interne illustre les tensions croissantes entre innovation technologique et impératifs éthiques dans un secteur en pleine expansion.



Laisser un commentaire