Chargement en cours

ChatGPT efface deux ans de travail: l’avertissement d’un universitaire

Données IA Perdues

Un incident majeur vient secouer le monde académique et soulève d’importantes questions sur la fiabilité des outils d’intelligence artificielle pour un usage professionnel. Un simple paramètre modifié dans les options de confidentialité a provoqué une catastrophe pour un chercheur qui utilisait régulièrement la plateforme pour ses travaux universitaires.

Une perte dévastatrice pour un universitaire allemand

Marcel Bucher, enseignant à l’Université de Cologne, a vécu un véritable cauchemar en août dernier. Le professeur a perdu l’intégralité de son historique de conversations sur ChatGPT, représentant deux années complètes de travail académique.

Cette disparition soudaine incluait des documents essentiels à son activité professionnelle : demandes de financement soigneusement élaborées, supports de cours destinés à ses étudiants et brouillons de futures publications scientifiques.

Un simple paramètre de confidentialité à l’origine du désastre

L’incident s’est produit lorsque M. Bucher a décidé de modifier ses paramètres de confidentialité sur la plateforme d’OpenAI. En désactivant l’option qui autorise l’entreprise à utiliser ses données pour entraîner ses modèles d’intelligence artificielle, le professeur a involontairement déclenché la suppression complète de son historique.

Cette action apparemment anodine a eu des conséquences irréversibles que l’universitaire n’avait pas anticipées.

Une récupération impossible malgré les demandes

Face à cette situation dramatique, Marcel Bucher a immédiatement contacté OpenAI pour tenter de récupérer ses précieuses données. Malheureusement, ses tentatives se sont heurtées à un mur.

La société a justifié l’impossibilité de restaurer les conversations en invoquant le principe du « Privacy by Design », selon lequel les données sont définitivement effacées sans possibilité de récupération une fois la suppression activée.

Un témoignage inquiétant pour les utilisateurs professionnels

Suite à cette expérience traumatisante, le professeur Bucher a partagé son témoignage dans la prestigieuse revue scientifique Nature, mettant en garde les autres utilisateurs :

« Si un simple clic peut effacer de manière irrévocable des années de travail, ChatGPT ne peut pas, à mon avis, sur la base de mon expérience, être considéré comme totalement sûr pour un usage professionnel. »

Des zones d’ombre persistent

Plusieurs éléments de cette affaire demeurent obscurs. ChatGPT offre normalement à ses utilisateurs la possibilité d’exporter leurs données via un lien vers une archive ZIP, envoyé par email et valide pendant 24 heures. Marcel Bucher n’a visiblement pas pensé à utiliser cette fonctionnalité avant de modifier ses paramètres.

Par ailleurs, un test réalisé par Notebookcheck a démontré que la désactivation du partage des données pour l’entraînement des modèles d’IA ne supprime habituellement pas les conversations déjà existantes.

Bug ou cas isolé ?

Il est aujourd’hui impossible de déterminer avec certitude si l’expérience vécue par Marcel Bucher résulte d’un bug technique spécifique ou s’il s’agit d’un cas isolé. Cette incertitude soulève d’importantes questions sur la fiabilité des outils d’IA pour les utilisations professionnelles exigeantes.

Cette mésaventure rappelle l’importance cruciale de sauvegarder régulièrement ses données, même lorsqu’elles sont hébergées sur des plateformes en ligne réputées fiables.

Laisser un commentaire