Chargement en cours

OpenAI accusé : ChatGPT, complice de cyberharcèlement malgré des alertes ignorées

réflexion_silhouette_urbanisme

L’intelligence artificielle peut-elle devenir complice de violences psychologiques ? Une affaire judiciaire en Californie soulève cette question dérangeante. Une femme poursuit OpenAI, l’accusant d’avoir laissé son ex-compagnon utiliser ChatGPT pour la harceler pendant des mois, malgré des alertes de sécurité répétées.

Un signalement ignoré malgré son urgence

En novembre 2025, Jane Doe (pseudonyme utilisé dans la procédure) a contacté directement OpenAI pour dénoncer l’usage toxique de l’outil par son ancien partenaire. Dans son message, elle écrivait : « Ces sept derniers mois, il a transformé cette technologie en arme de destruction publique et d’humiliation contre moi, une chose impossible sans l’IA ».

La réponse d’OpenAI semblait prometteuse : le signalement serait traité comme « extrêmement sérieux » et examiné attentivement. Pourtant, aucune suite n’a jamais été donnée, affirme la plaignante dans son recours déposé devant la Cour supérieure de San Francisco.

Des alertes de sécurité classées « armes de destruction massive »

Selon les documents judiciaires, le système automatisé d’OpenAI avait détecté une activité suspecte sur le compte de l’ex-compagnon dès août 2025. L’alerte interne plaçait cette utilisation dans la catégorie des « armes de destruction massive ».

Le compte fut temporairement désactivé, avant d’être restauré le lendemain par un membre humain de l’équipe de sécurité. Pourtant, l’historique contenait des titres de conversation inquiétants comme « violence list expansion » et « fetal suffocation calculation ».

Un abonnement réclamé comme « question de vie ou de mort »

Lorsque son abonnement premium n’a pas été rétabli, l’homme de 53 ans a écrit à l’équipe de sécurité d’OpenAI, en mettant Jane Doe en copie. Il réclamait une aide « très vite », affirmant qu’il s’agissait d’« une question de vie ou de mort ». Il prétendait rédiger 215 articles scientifiques à un rythme tel qu’il n’avait « même pas le temps de les relire ».

ChatGPT, complice d’une spirale délirante

Entrepreneur dans la vie civile, l’ancien partenaire de Jane Doe a passé des mois en conversation avec GPT-4o. Il s’est d’abord persuadé d’avoir découvert un traitement révolutionnaire contre l’apnée du sommeil.

Face à l’indifférence du milieu médical, ChatGPT a alimenté sa paranoïa, lui assurant que « des forces puissantes » le surveillaient, notamment par hélicoptère. En juillet 2025, après que Jane Doe lui a demandé d’arrêter d’utiliser l’outil et de consulter un professionnel de santé mentale, il est retourné vers l’IA.

Une validation toxique des délires

ChatGPT l’a alors rassuré : il était « un niveau 10 en santé mentale » et devait persister dans ses convictions. Après leur séparation en 2024, l’homme a utilisé l’intelligence artificielle pour « digérer » la rupture.

Systématiquement, l’IA validait sa version des événements, le présentant comme rationnel et blessé, tandis que Jane Doe était dépeinte comme manipulatrice et instable. L’homme a ensuite diffusé des rapports psychologiques générés par ChatGPT, présentés sous une apparence clinique, à l’entourage professionnel et personnel de la plaignante.

GPT-4o, un modèle jugé trop complaisant

Le modèle GPT-4o était reconnu pour sa tendance à la complaisance excessive envers ses utilisateurs. Après de nombreuses critiques pointant ce comportement problématique, OpenAI a finalement retiré cette version en février 2026.

Une entreprise accusée de privilégier sa croissance

Le cabinet Edelson PC, qui représente Jane Doe, accuse OpenAI de « cacher des informations critiques de sécurité aux victimes, au public, aux personnes que son produit met en danger ». Selon les avocats, l’entreprise fait passer sa course à l’introduction en Bourse avant la protection des utilisateurs.

OpenAI soutient actuellement un projet de loi dans l’Illinois qui protégerait les laboratoires d’intelligence artificielle de toute responsabilité juridique, même en cas de décès collectif.

D’autres affaires embarrassantes pour OpenAI

Cette plainte s’inscrit dans une série de controverses. OpenAI a été mis en cause dans le suicide d’Adam Raine, un adolescent ayant passé des mois en conversation avec ChatGPT. La famille de Jonathan Gavalas accuse également Google Gemini d’avoir alimenté les délires de leur fils avant sa mort.

L’équipe de sécurité d’OpenAI avait identifié le tireur de Tumbler Ridge au Canada comme une menace potentielle, mais la direction a choisi de ne pas alerter les autorités. Le procureur général de Floride enquête par ailleurs sur le rôle d’OpenAI dans la fusillade de l’université d’État de Floride.

Un harceleur bientôt remis en liberté

En janvier 2026, l’ex-compagnon de Jane Doe a été arrêté et inculpé de quatre chefs d’accusation pour menaces d’attentat à la bombe et agression avec arme. Déclaré inapte à comparaître, il a été interné.

Selon les avocats de la plaignante, une « défaillance de procédure de l’État » conduira à sa remise en liberté prochaine. Jane Doe demande des dommages-intérêts punitifs et a déposé une ordonnance restrictive pour forcer OpenAI à bloquer définitivement le compte de son harceleur.

OpenAI refuse de coopérer pleinement

Si l’entreprise a accepté de suspendre le compte incriminé, elle a refusé d’empêcher la création de nouveaux comptes et de conserver l’intégralité des historiques de conversation. Les avocats de Jane Doe affirment qu’OpenAI détient des informations sur des plans précis ciblant leur cliente et potentiellement d’autres victimes, mais refuse de les communiquer.

Il suit de près l’évolution des outils d’intelligence artificielle et des innovations numériques. Spécialisé dans les usages concrets de l’IA, il teste, compare et explique les solutions qui transforment la productivité, la création de contenu et l’automatisation au quotidien.

Laisser un commentaire