En résumé:
- PCWorld rapporte que Wikipédia est confronté à des problèmes d’exactitude avec les articles traduits par l’IA contenant des erreurs factuelles et des citations incorrectes, connues sous le nom d’« hallucinations ».
- L’Open Knowledge Association rémunère les traducteurs utilisant des LLM comme Google Gemini et ChatGPT, ce qui incite Wikipédia à mettre en œuvre des processus de révision plus stricts.
- Malgré ces problèmes, Wikipédia continue d’utiliser des traductions IA pour des contenus dans diverses langues tout en imposant des interdictions de traduction après cinq erreurs documentées.
Les grands modèles de langage, appelés « IA » en termes marketing, inventent parfois de la merde. C’est un problème que quiconque reconnaît s’il en utilise un, ne serait-ce que pendant un petit moment, et ce ne sont pas seulement des informations de base qu’il se trompe. Wikipédia est aux prises avec un seul exemple : il trouve des « hallucinations » dans les articles traduits en LLM.
Le début de cette histoire est positif et altruiste : une organisation tierce à but non lucratif appelée Open Knowledge Association (OKA) verse une allocation aux personnes qui traduisent des articles Wikipédia dans d’autres langues. Les problèmes viennent du fait de s’appuyer sur de grands modèles linguistiques tels que Google Gemini et ChatGPT pour effectuer les traductions sans révision humaine.
Selon un rapport de 404 Media, les éditeurs de Wikipédia effectuant des révisions de routine des articles traduits ont trouvé des erreurs d’information de base qui ne figuraient pas dans les articles dans la langue d’origine, ainsi que des citations manquantes, échangées ou pour des pages de livres qui n’avaient rien à voir avec le sujet. (Les LLM sont particulièrement mauvais en matière de documentation, comme de nombreux avocats l’ont découvert à leur détriment.) Auparavant, le système utilisait Grok – le LLM d’Elon Musk connecté à eX-Twitter et connu pour produire des quantités massives de matériel sexuel non consensuel – mais OKA aurait changé sa politique.
Les rédacteurs de Wikipédia ne sont presque entièrement pas rémunérés. Une personne peut modifier Wikipédia dans le cadre de son travail général, comme un agent de relations publiques, mais ces modifications nécessitent une divulgation et sont soumises à un examen plus approfondi. Ajouter un élément commercial aux modifications à grande échelle, même dans le cadre de la traduction, peut inciter les travailleurs payés par l’Open Knowledge Association à aller vite et à commettre des erreurs. OKA paie à ses employés environ 400 dollars par mois pour une traduction à temps plein. Ce n’est pas grand-chose, mais cela va beaucoup plus loin dans les pays du Sud, où vivent de nombreux traducteurs.
Malgré la politique générale de Wikipédia contre les articles générés par LLM, les éditeurs de Wikipédia ont décidé de continuer à utiliser les services d’OKA. Étant donné que Wikipédia en anglais est encore deux fois plus grand que la langue suivante (sans compter Wikipédia en cebuano, qui semble être presque entièrement généré par des robots), et que les langues avec moins de locuteurs sont souvent mal servies, les traductions des articles importants sont désespérément nécessaires. Mais les traducteurs d’OKA sont soumis à des pratiques éditoriales beaucoup plus sévères que les utilisateurs réguliers : après cinq erreurs documentées, un traducteur d’OKA peut être banni et ses traductions précédentes peuvent être effacées à moins qu’un éditeur plus expérimenté n’en prenne possession.











