Chargement en cours

ChatGPT pris à utiliser une source contestée, la fiabilité des IA en question

Bibliothèque Lumineuse Digitale

Le monde de l’intelligence artificielle générative soulève de nouvelles interrogations. Une récente enquête révèle des liens inquiétants entre les sources d’information utilisées par les grands modèles de langage et leur fiabilité. Cette découverte pourrait remettre en question la confiance accordée à ces outils devenus omniprésents.

Quand ChatGPT s’appuie sur des sources contestées

Une investigation du Guardian vient de mettre au jour une pratique troublante: ChatGPT, l’un des assistants IA les plus populaires au monde, utilise régulièrement Grokipedia comme source d’information. Cette encyclopédie alimentée par intelligence artificielle, développée par l’entreprise d’Elon Musk, fait l’objet de nombreuses critiques concernant sa fiabilité.

Le problème se manifeste particulièrement lorsque l’utilisateur interroge l’IA sur des sujets techniques ou peu médiatisés. Dans ces cas, GPT-5.2 cite fréquemment Grokipedia comme référence.

Des exemples concrets de désinformation

L’enquête a identifié plusieurs domaines où cette pratique pose problème. Les structures paramilitaires iraniennes ou certaines biographies d’historiens spécialisés figurent parmi les sujets où Grokipedia sert de référence principale.

La particularité de Grokipedia réside dans son fonctionnement: entièrement générée par algorithmes, sans intervention humaine ni transparence sur ses propres sources. Cette absence de vérification expose les utilisateurs à des informations potentiellement trompeuses ou biaisées idéologiquement.

Un cercle vicieux d’auto-validation

Plus inquiétant encore, on observe un phénomène de légitimation circulaire. Le simple fait que ChatGPT cite Grokipedia renforce artificiellement la crédibilité de cette dernière. Les chercheurs ont également constaté que ChatGPT tend à amplifier certaines allégations issues de Grokipedia avec un degré de certitude accru.

Ce mécanisme s’apparente au « LLM grooming », un processus où les modèles de langage se nourrissent mutuellement, validant et renforçant des contenus générés par d’autres IA sans vérification externe.

Réactions et implications

Face à ces révélations, OpenAI, l’entreprise derrière ChatGPT, a simplement déclaré utiliser « une grande diversité de sources publiques » pour entraîner ses modèles. Anthropic, un autre acteur majeur du secteur, n’a pas souhaité répondre aux sollicitations concernant cette problématique.

Cette affaire soulève des questions fondamentales sur la capacité des modèles de langage à servir d’intermédiaires fiables dans un écosystème d’information de plus en plus saturé de contenus générés par IA.

Un problème plus large de désinformation

Le cas Grokipedia s’inscrit dans un contexte préoccupant de prolifération des fake news assistées par IA. Plusieurs études récentes montrent l’ampleur du problème sur des plateformes comme TikTok et X (anciennement Twitter).

La création de faux médias en ligne utilisant l’IA à des fins d’influence étrangère constitue également une tendance inquiétante. La nécessité de mettre en place des garde-fous solides pour garantir un accès fiable au savoir devient de plus en plus pressante face à ces nouvelles formes de manipulation de l’information.

Il est spécialisé dans les outils d’IA appliqués au travail et à l’entrepreneuriat. Automatisation, no-code, assistants intelligents, IA pour les entreprises : il explore les solutions qui font gagner du temps et améliorent l’efficacité. Sa priorité : proposer des conseils pratiques, testés et réellement utiles.

Laisser un commentaire