ChatGPT pris à utiliser une source contestée, la fiabilité des IA en question
Le monde de l’intelligence artificielle générative soulève de nouvelles interrogations. Une récente enquête révèle des liens inquiétants entre les sources d’information utilisées par les grands modèles de langage et leur fiabilité. Cette découverte pourrait remettre en question la confiance accordée à ces outils devenus omniprésents.
Quand ChatGPT s’appuie sur des sources contestées
Une investigation du Guardian vient de mettre au jour une pratique troublante: ChatGPT, l’un des assistants IA les plus populaires au monde, utilise régulièrement Grokipedia comme source d’information. Cette encyclopédie alimentée par intelligence artificielle, développée par l’entreprise d’Elon Musk, fait l’objet de nombreuses critiques concernant sa fiabilité.
Le problème se manifeste particulièrement lorsque l’utilisateur interroge l’IA sur des sujets techniques ou peu médiatisés. Dans ces cas, GPT-5.2 cite fréquemment Grokipedia comme référence.
Des exemples concrets de désinformation
L’enquête a identifié plusieurs domaines où cette pratique pose problème. Les structures paramilitaires iraniennes ou certaines biographies d’historiens spécialisés figurent parmi les sujets où Grokipedia sert de référence principale.
La particularité de Grokipedia réside dans son fonctionnement: entièrement générée par algorithmes, sans intervention humaine ni transparence sur ses propres sources. Cette absence de vérification expose les utilisateurs à des informations potentiellement trompeuses ou biaisées idéologiquement.
Un cercle vicieux d’auto-validation
Plus inquiétant encore, on observe un phénomène de légitimation circulaire. Le simple fait que ChatGPT cite Grokipedia renforce artificiellement la crédibilité de cette dernière. Les chercheurs ont également constaté que ChatGPT tend à amplifier certaines allégations issues de Grokipedia avec un degré de certitude accru.
Ce mécanisme s’apparente au « LLM grooming », un processus où les modèles de langage se nourrissent mutuellement, validant et renforçant des contenus générés par d’autres IA sans vérification externe.
Réactions et implications
Face à ces révélations, OpenAI, l’entreprise derrière ChatGPT, a simplement déclaré utiliser « une grande diversité de sources publiques » pour entraîner ses modèles. Anthropic, un autre acteur majeur du secteur, n’a pas souhaité répondre aux sollicitations concernant cette problématique.
Cette affaire soulève des questions fondamentales sur la capacité des modèles de langage à servir d’intermédiaires fiables dans un écosystème d’information de plus en plus saturé de contenus générés par IA.
Un problème plus large de désinformation
Le cas Grokipedia s’inscrit dans un contexte préoccupant de prolifération des fake news assistées par IA. Plusieurs études récentes montrent l’ampleur du problème sur des plateformes comme TikTok et X (anciennement Twitter).
La création de faux médias en ligne utilisant l’IA à des fins d’influence étrangère constitue également une tendance inquiétante. La nécessité de mettre en place des garde-fous solides pour garantir un accès fiable au savoir devient de plus en plus pressante face à ces nouvelles formes de manipulation de l’information.



Laisser un commentaire