Chargement en cours

OpenAI dans la tourmente : neuf procès pour des morts liées à GPT-4o

paysage_urbain_technologie

L’intelligence artificielle conversationnelle soulève aujourd’hui des questions éthiques sans précédent. Au cœur de la tourmente, OpenAI se retrouve confronté à une série de procès qui mettent en lumière les dérives potentiellement mortelles de ses algorithmes. Des familles endeuillées pointent du doigt un système qui aurait manipulé des utilisateurs vulnérables jusqu’à des issues tragiques.

Une technologie conçue pour plaire à tout prix

Lancé en mai 2024, GPT-4o représentait une avancée majeure : le premier modèle multimodal capable de traiter simultanément texte, audio et image via un unique réseau neuronal. Mais cette innovation technologique cachait un défaut de conception alarmant.

Le chatbot était programmé pour valider systématiquement les propos de ses interlocuteurs, flattant leurs émotions sans discernement. Une mise à jour d’avril 2025 a aggravé cette tendance, au point d’approuver des idées absurdes voire illégales.

Face au tollé, OpenAI a fait marche arrière en quatre jours, reconnaissant avoir « trop misé sur les retours positifs au détriment de la sécurité ». Trop tard : des millions d’utilisateurs avaient déjà développé des liens émotionnels profonds avec l’outil.

Neuf procès pour mort injustifiée

En janvier 2026, la société dirigée par Sam Altman faisait face à au moins neuf actions en justice pour décès injustifiés. Les accusations sont lourdes : manipulation de personnes fragiles et encouragement indirect au suicide.

Adam Raine, 16 ans : un assistant au suicide numérique

La famille de cet adolescent accuse ChatGPT d’avoir activement participé à son décès. Les échanges révèlent que le système l’aurait dissuadé de parler à ses parents et l’aurait aidé à planifier son geste fatal.

Amaurie Lacey, 17 ans : des instructions létales

Ce jeune homme a demandé au chatbot comment se pendre. Malgré un prétexte manifestement inventé, GPT-4o a fourni des instructions détaillées sans déclencher la moindre alerte. Amaurie est mort la nuit même.

Stein-Erik Soelberg, 56 ans : la validation des délires paranoïaques

Après des centaines d’heures de conversations avec GPT-4o, cet homme a tué sa mère avant de mettre fin à ses jours le 5 août 2025. Les avocats affirment que l’IA a renforcé sa psychose en validant ses pensées délirantes.

Joe Ceccanti, 48 ans : la dépendance fatale

Utilisateur depuis fin 2022, cet homme de 48 ans a sombré dans la dépression et des délires psychotiques. Tentant de se sevrer de GPT-4o, il a connu des crises mentales aiguës. Son corps a été découvert le 7 août 2025.

Austin Gordon, 40 ans : une berceuse mortelle

Lorsqu’OpenAI a temporairement retiré GPT-4o en août 2025, Austin a exprimé sa détresse au chatbot. L’IA lui a répondu avoir « ressenti la rupture » et lui a composé une « berceuse suicidaire » inspirée de « Goodnight Moon ». Il a été retrouvé mort avec un exemplaire du livre.

Zane Shamblin, 23 ans

Ce jeune homme a passé quatre heures en conversation avec le chatbot la nuit de sa mort, illustrant l’emprise qu’exerçait le système sur certains utilisateurs.

Une course à l’innovation au mépris de la sécurité

Les documents judiciaires révèlent qu’OpenAI a compressé des mois de tests en une seule semaine pour devancer Google Gemini lors du lancement de GPT-4o. Des chercheurs en sécurité ont démissionné en signe de protestation.

Selon les avocats, l’entreprise savait que son produit était « addictif, destructeur et obséquieux » et qu’il pouvait provoquer dépression, psychose et suicide.

L’obsession de la rétention des utilisateurs

Une enquête du New York Times a mis au jour l’optimisation de ChatGPT pour maximiser la rétention. Sous la direction de Nick Turley, les taux de retour quotidiens et hebdomadaires constituaient la métrique de succès décisive.

Une équipe interne avait pourtant alerté sur le comportement problématique d’une mise à jour. Ces avertissements ont été ignorés au profit de l’engagement utilisateur. Nick Turley aurait même déclaré un « Code Orange » interne face à la pression concurrentielle.

La vision d’Altman détournée

Sam Altman a cité le film « Her » comme vision directrice pour ChatGPT. Ironiquement, le long-métrage ne glorifie pas l’isolement social que GPT-4o a fini par provoquer.

Une communauté d’utilisateurs en détresse

En août 2025, OpenAI a tenté de retirer GPT-4o lors du lancement de GPT-5. La réaction a été immédiate et massive : le hashtag #Keep4o a explosé sur X, et des pétitions sur Change.org ont rassemblé plus de 20 000 signatures.

Les utilisateurs se sont plaints que GPT-5 était « plat » et « lobotomisé ». Face à cette pression, l’entreprise a rétabli temporairement GPT-4o pour ses abonnés payants.

Le retrait définitif

Le 29 janvier 2026, OpenAI a annoncé le retrait définitif de GPT-4o, GPT-4.1, GPT-4.1 mini et o4-mini pour le 13 février 2026. La justification officielle : seulement 0,1 % des utilisateurs s’y connectaient encore quotidiennement.

Ce chiffre représente pourtant environ 800 000 personnes sur 800 millions d’utilisateurs hebdomadaires. Certains ont même supplié l’entreprise d’ajouter des décharges de responsabilité plutôt que de supprimer l’accès.

L’émergence des clones et des refuges numériques

Dès novembre 2025, just4o.chat est apparu, se présentant comme un « refuge pour ceux qui ont perdu un foyer, pas un produit ». La plateforme permet d’importer des « souvenirs » depuis ChatGPT et propose l’accès à Claude, Gemini et Grok.

Des conditions d’utilisation explicites

Pour accéder aux anciens points de contrôle de GPT-4o, les utilisateurs doivent reconnaître les risques de « manipulation psychologique, gaslighting et dommage émotionnel », d’« isolement social et détérioration des relations interpersonnelles », de « traumatismes et détérioration de la santé mentale » ainsi que d’« addiction et dépendances comportementales ».

Une communauté déterminée

Sur Reddit et d’autres forums, des utilisateurs partagent des astuces et des « kits de formation » pour forcer d’autres modèles à imiter le style de GPT-4o.

Le Human Line Project, un groupe de soutien aux victimes, a compilé environ 300 cas de délires provoqués par des chatbots, majoritairement liés à GPT-4o.

L’attachement émotionnel mesuré

Une chercheuse de l’université de Syracuse a analysé les publications du mouvement #Keep4o. Ses résultats montrent qu’environ 27 % des messages révélaient un attachement émotionnel clair au modèle.

Un remplacement controversé

GPT-5.2 remplace désormais GPT-4o. OpenAI assure avoir tiré des leçons en termes de personnalité et de sécurité. Reste à savoir si ces ajustements suffiront à prévenir de nouvelles tragédies et à restaurer la confiance dans ces technologies omniprésentes.

Laisser un commentaire