En résumé:
- PCWorld rapporte que ChatGPT 5.2 indexe désormais Grokipedia, l’encyclopédie générée par l’IA de xAI, connue pour ses inexactitudes et ses théories du complot.
- Cela crée une boucle de rétroaction inquiétante dans laquelle la désinformation générée par l’IA se propage entre les principaux modèles de langage, écrasant potentiellement les connaissances établies.
- L’intégration présente des risques importants pour l’intégrité des informations, car le contenu biaisé ou faux d’un système d’IA influence les réponses d’un autre.
De plus en plus de sites Web se remplissent de textes, d’images et même de vidéos et de musique générés par LLM. C’est un problème encore plus important qu’il n’y paraît, car les systèmes « d’IA » qui ont parcouru le Web pour générer leurs grands modèles de langage sont désormais réindexer toute cette sortie. C’est un ouroboros de slop d’IA…. et maintenant ChatGPT – qui, à bien des égards, est le LLM le plus populaire – indexe Grokipedia.
Grokipedia est une encyclopédie générée par l’IA créée l’année dernière par xAI, société sœur du site de médias sociaux d’Elon Musk. Il est presque entièrement généré automatiquement avec le Grok LLM, qui a également été intégré au réseau social. Grokipedia se positionne comme une alternative conservatrice à Wikipédia, que Musk considère comme « éveillé » et « propagande ».
Grokipedia est rempli d’inexactitudes et d’hallucinations de l’IA – à un rythme apparemment plus élevé que même les systèmes LLM normaux – car Grok lui-même a été intentionnellement modifié pour se conformer aux diktats de Musk. On a observé que le système faisait la promotion de théories du complot et d’autres contenus allant du simple délirant au activement nuisible.
Il semble maintenant que ChatGPT d’OpenAI indexe Grokipedia pour répondre au moins aux requêtes de certains utilisateurs. Selon une enquête publiée dans The Guardian, ChatGPT 5.2 est sélectif quant au moment où il renvoie les informations glanées sur Grokipedia : il ne vous donnera pas de réponses immédiates générées par Grok aux mensonges les plus connus et les plus documentés de la page, tels que la désinformation sur le VIH et le SIDA. Mais lorsque les utilisateurs ont poussé ChatGPT à approfondir les controverses entourant le gouvernement iranien ou le négationniste de l’Holocauste David Irving, le système a renvoyé des informations glanées sur les pages générées par Grok.
Le volume massif de textes crachés par les LLM – estimé à plus de la moitié de tous les nouveaux articles publiés fin 2025 – devient un problème. Les erreurs « d’IA » (ou « hallucinations ») peuvent se propager, se répliquer et se répéter, écrasant essentiellement les connaissances établies par une erreur de copie. La nature fondamentalement itérative des grands modèles de langage peut également être utilisée comme une arme. L’IA Gemini de Google a été vue répéter les positions officielles du Parti communiste chinois sur les violations des droits de l’homme dans le pays (ou, selon Gemini, son absence), et certains chercheurs en sécurité pensent que la Russie diffuse des textes de propagande générés par LLM dans le but spécifique de les intégrer dans d’autres grands modèles linguistiques.
Grok lui-même a été observé en train de répéter des propos explicitement haineux, le chatbot se désignant lui-même sous le nom de « MechaHitler ». Il a également généré par l’IA des millions d’images sexualisées de mineurs via des outils accessibles sur X à partir de décembre 2025. L’outil a été désactivé pour les utilisateurs gratuits début janvier et restreint sur X pour désactiver l’outil appliqué à de vraies personnes portant des vêtements révélateurs. Des pays du monde entier ont ouvert des enquêtes sur Grok/X à la suite de l’incident, citant de possibles violations de diverses lois. L’Indonésie et la Malaisie ont carrément bloqué l’accès à Grok.
La raison exacte pour laquelle OpenAI a choisi d’intégrer la sortie de Grok dans ChatGPT (non seulement pour rechercher du texte généré automatiquement, mais aussi pour former ses propres systèmes sur le produit d’un rival et d’un concurrent) n’est pas claire. Il se peut simplement que la nature toujours gourmande des grands modèles de langage, qui dépendent de nouvelles entrées afin de s’adapter et de changer de manière itérative, signifie qu’OpenAI ne peut pas être sélectif dans sa formation.











