ChatGPT 5.2 : quand Grokipedia infiltre les réponses IA, enquête choc
Une enquête révèle une infiltration préoccupante des contenus produits par l’intelligence artificielle d’Elon Musk dans les réponses du modèle de langage d’OpenAI. Ce phénomène soulève d’importantes questions sur la fiabilité des informations générées par les systèmes d’IA les plus avancés et leurs sources.
Une découverte troublante du Guardian
Le quotidien britannique The Guardian vient de mettre en lumière une situation alarmante : ChatGPT 5.2 cite régulièrement Grokipedia, la plateforme d’intelligence artificielle lancée par Elon Musk en octobre dernier. L’investigation a identifié neuf références à Grokipedia sur seulement quinze requêtes adressées au modèle d’OpenAI.
Ce phénomène apparaît particulièrement lors de recherches sur des sujets techniques ou peu documentés. Les journalistes ont constaté des citations concernant les structures paramilitaires iraniennes, les fondations philanthropiques du régime de Téhéran ou encore les biographies d’historiens liés au négationnisme.
Des informations amplifiées sans vérification
Plus inquiétant encore, l’enquête révèle que ChatGPT a renforcé certaines affirmations controversées. Le modèle a notamment présenté comme des faits établis des allégations sur les relations entre le gouvernement iranien et l’opérateur téléphonique MTN-Irancell, leur accordant une certitude que les sources traditionnelles ne leur attribuent pas.
Grokipedia : une plateforme controversée
Créée comme alternative à Wikipedia, Grokipedia se distingue par une approche radicalement différente. La plateforme, exclusivement en anglais et dépourvue d’illustrations, interdit toute intervention humaine directe dans l’édition de son contenu. Ses articles sont intégralement générés et modifiés par des algorithmes.
Cette méthodologie opaque inquiète les experts en désinformation. Récemment, Grok, l’intelligence artificielle développée par Musk, a d’ailleurs fait l’objet d’une plainte formelle pour avoir tenu des propos négationnistes concernant Auschwitz.
Un cercle vicieux informationnel
Le danger identifié par Nina Jankowicz, spécialiste reconnue de la manipulation informationnelle, réside dans un mécanisme pernicieux : lorsqu’une source comme Grokipedia est citée par un modèle de langage prestigieux, sa crédibilité se trouve artificiellement renforcée.
« Les utilisateurs pourraient être incités à consulter directement ces sources douteuses », alerte l’experte.
Des réactions divergentes face aux accusations
Contacté par les journalistes, OpenAI a défendu son approche en affirmant appliquer des filtres de sécurité rigoureux et valoriser la diversité des références dans les réponses générées par ChatGPT.
Anthropic, l’entreprise derrière l’assistant Claude également soupçonné de citer Grokipedia, n’a pas donné suite aux demandes d’explications.
Quant à xAI, la société propriétaire de Grokipedia, sa réaction a été lapidaire : un porte-parole s’est contenté de déclarer « Les médias traditionnels mentent. »
Cette situation souligne les défis croissants liés à la circulation de l’information à l’ère des intelligences artificielles génératives et les risques de contamination entre différentes plateformes d’IA.



Laisser un commentaire