Si vous avez déjà posé une question à ChatGPT uniquement pour recevoir une réponse qui se lit bien mais qui est complètement fausse, alors vous avez été témoin d’une hallucination. Certaines hallucinations peuvent être carrément drôles (par exemple, les frères Wright ont inventé la bombe atomique), d’autres peuvent être un peu dérangeantes (par exemple lorsque des informations médicales sont erronées).
Ce qui en fait une hallucination, c’est le fait que l’IA ne sait pas qu’elle invente quoi que ce soit, elle a confiance en sa réponse et continue comme d’habitude.
Contrairement aux hallucinations humaines, il n’est pas toujours facile de savoir quand une IA hallucine. Il y a certaines choses fondamentales que vous devez savoir sur les hallucinations de l’IA si vous voulez les repérer.
Qu’est-ce qu’une hallucination IA : la définition
Une hallucination de l’IA se produit lorsqu’un modèle d’IA produit des résultats factuellement incorrects, logiquement incohérents ou complètement inventés. Ces hallucinations se trouvent principalement dans les modèles d’IA génératifs, en particulier les grands modèles linguistiques (LLM) comme ChatGPT.
Contrairement aux bugs de programmation des logiciels, les hallucinations de l’IA ne sont pas le résultat d’une erreur d’un programmeur mais proviennent plutôt des probabilités apprises d’un modèle. Voici comment repérer les différents types d’hallucinations.
Vous voyez des faits qui sont incorrects
Les hallucinations factuelles se produisent lorsqu’un modèle d’IA produit des informations incorrectes ou non fondées. Un exemple serait « La tour Eiffel à Paris a été construite en 1999 ». En réalité, il a été construit entre 1887 et 1889. Ces changements sont dus à des limitations des données d’entraînement du modèle ou à sa capacité à vérifier les faits.
Ces hallucinations peuvent être particulièrement dangereuses dans les domaines du droit, de l’éducation et de la santé, où des informations factuelles sont impératives.
Vous obtenez une réponse sans rapport avec une question
Si une réponse s’écarte trop d’une question ou interrompt le flux logique d’une conversation, alors l’IA a une hallucination contextuelle. Un exemple serait une question « Comment puis-je préparer un ragoût ? » suivi de la réponse : « Le ragoût est savoureux et il y a neuf planètes dans le système solaire. » Cela produit un résultat linguistiquement correct, mais sans rapport avec le sujet.
Ce type d’hallucination se produit lorsque le modèle ne parvient pas à préserver le contexte précédent.
Vous recevez une réponse qui semble logiquement invalide
Si la logique d’une réponse est de travers, alors l’IA a une hallucination logique. Un exemple de ceci serait une déclaration comme : « Si Barbara a trois chats et en a deux de plus, elle a 6 chats. » Il est clair que la logique échoue ici : l’IA a échoué dans une tâche qui nécessite des mathématiques et un raisonnement simples. Cela peut constituer un gros problème pour les tâches qui nécessitent une résolution de problèmes.
Vous remarquez une inadéquation entre les modalités d’IA
Ces types d’hallucinations, appelés hallucinations multimodales, se produisent dans les modèles d’IA qui interprètent plusieurs types de médias. Un exemple serait lorsqu’une description ne correspond pas à une image. Par exemple, une invite « demander une image d’un singe portant des lunettes de soleil » produit une image d’un singe sans lunettes de soleil. C’est le type que vous verriez dans les modèles d’IA de génération d’images tels que DALL E.
Comment tester une hallucination potentielle
Les hallucinations érodent la confiance et peuvent être très dangereuses dans certaines circonstances, par exemple lorsque les professionnels s’appuient sur l’IA pour obtenir des réponses factuelles correctes.
Vous ne pouvez pas toujours savoir si une hallucination se produit, mais vous pouvez effectuer certaines vérifications pour vous aider à le découvrir. Voici ce qu’il faut faire :
Vérification manuelle des faits
Utilisez des moteurs de recherche et des documents de référence fiables pour vérifier les allégations spécifiques, les noms, les dates ou les numéros fournis par l’IA. Si l’IA cite des sources, essayez de les rechercher. Les liens sources fabriqués ou inexacts sont un signe courant d’hallucination.
Utilisez des questions de suivi
Demandez à l’IA de développer un détail spécifique qu’elle a fourni. S’il est difficile ou introduit des faits nouveaux et incohérents, le détail original peut avoir été inventé.
Demander une justification
Demandez à l’IA : « Pouvez-vous fournir une source pour cela ? » » ou demandez : « Dans quelle mesure êtes-vous sûr de cette réponse ? » Un bon modèle peut pointer vers ses données d’entraînement ou ses résultats de recherche ; un modèle hallucinant peut avoir du mal à étayer ses affirmations ou à inventer une source semblant plausible.
Comparer les modèles
Posez exactement la même question à un autre modèle d’IA. Si les réponses sont très différentes, cela suggère qu’au moins un modèle est incorrect.
Contenu associé
- De fausses images d’IA inondent Internet. Voici comment les reconnaître
- Pouvez-vous repérer un chatbot IA empoisonné ? 4 conseils d’un expert en sécurité Microsoft
- J’ai commencé à « coder par ambiance » mes propres applications avec l’IA et j’adore ça.











