Hallucination : Définition et Exemples
Une hallucination désigne une réponse générée par un modèle d'IA qui semble plausible et formulée avec assurance, mais qui est factuellement incorrecte, inventée ou sans fondement dans les données d'entraînement.
Définition complète
En intelligence artificielle, une hallucination se produit lorsqu'un modèle de langage génère des informations qui n'existent pas, sont factuellement fausses ou ne correspondent à aucune source fiable. Le terme est emprunté à la psychiatrie, où il désigne une perception sans objet réel. Dans le contexte de l'IA, il décrit la tendance des modèles à "inventer" des faits avec une apparence de certitude.
Les hallucinations surviennent parce que les modèles de langage (LLM) fonctionnent par prédiction statistique du mot suivant. Ils ne "savent" pas au sens humain du terme : ils génèrent du texte probable en fonction de patterns appris. Quand le modèle manque d'information sur un sujet ou que la question est ambiguë, il peut produire une réponse cohérente sur le plan linguistique mais totalement erronée sur le plan factuel — citations inventées, statistiques fictives, événements qui n'ont jamais eu lieu.
Le danger principal des hallucinations réside dans leur apparence de crédibilité. Contrairement à un moteur de recherche qui affiche "aucun résultat", un LLM produira presque toujours une réponse, même quand il devrait admettre son ignorance. Cela peut conduire à la propagation de fausses informations, surtout lorsque l'utilisateur ne vérifie pas les sources.
Plusieurs techniques permettent de réduire les hallucinations : le Retrieval-Augmented Generation (RAG) qui ancre les réponses dans des documents vérifiés, le prompting avec demande de sources, la réduction de la température de génération, ou encore les instructions explicites demandant au modèle de dire "je ne sais pas" plutôt que d'inventer. La maîtrise de ce phénomène est un enjeu central du prompt engineering moderne.
Étymologie
Le terme "hallucination" est emprunté au vocabulaire médical et psychiatrique, où il désigne une perception sensorielle sans stimulus externe réel (du latin hallucinari, "errer en esprit"). Son adoption dans le domaine de l'IA date du début des années 2020, avec la démocratisation des grands modèles de langage, pour décrire par analogie la génération de contenus sans ancrage dans la réalité.
Exemples concrets
Demander des références bibliographiques à un LLM
Cite-moi 3 études scientifiques publiées après 2020 sur l'impact du sommeil sur la mémoire. IMPORTANT : ne cite que des études réelles avec leurs DOI. Si tu n'es pas certain qu'une référence existe, indique-le clairement.
Vérifier des faits historiques générés par l'IA
Quelle est la date exacte de la signature du traité de Westphalie ? Réponds uniquement si tu es certain de la date. Si tu as un doute, dis-le.
Réduire les hallucinations avec du contexte fourni (RAG)
En te basant UNIQUEMENT sur le document ci-dessous, réponds à la question. Si la réponse ne se trouve pas dans le document, réponds "Information non disponible dans le document fourni." [Document : ...] Question : Quel est le chiffre d'affaires 2024 de l'entreprise ?
Usage pratique
En prompt engineering, la lutte contre les hallucinations passe par des instructions explicites : demander au modèle de citer ses sources, de signaler son niveau de certitude, ou de répondre "je ne sais pas" quand l'information lui manque. Fournir du contexte pertinent directement dans le prompt (technique RAG) et baisser la température de génération sont également des leviers efficaces pour obtenir des réponses plus fiables.
Concepts liés
FAQ
Pourquoi les modèles d'IA hallucinent-ils ?
Comment détecter une hallucination dans une réponse d'IA ?
Peut-on éliminer complètement les hallucinations ?
Voir aussi
Recevez de nouveaux prompts chaque semaine
Rejoignez notre newsletter.