P

Hallucination : Définition et Exemples

Une hallucination désigne une réponse générée par un modèle d'IA qui semble plausible et formulée avec assurance, mais qui est factuellement incorrecte, inventée ou sans fondement dans les données d'entraînement.

Définition complète

En intelligence artificielle, une hallucination se produit lorsqu'un modèle de langage génère des informations qui n'existent pas, sont factuellement fausses ou ne correspondent à aucune source fiable. Le terme est emprunté à la psychiatrie, où il désigne une perception sans objet réel. Dans le contexte de l'IA, il décrit la tendance des modèles à "inventer" des faits avec une apparence de certitude.

Les hallucinations surviennent parce que les modèles de langage (LLM) fonctionnent par prédiction statistique du mot suivant. Ils ne "savent" pas au sens humain du terme : ils génèrent du texte probable en fonction de patterns appris. Quand le modèle manque d'information sur un sujet ou que la question est ambiguë, il peut produire une réponse cohérente sur le plan linguistique mais totalement erronée sur le plan factuel — citations inventées, statistiques fictives, événements qui n'ont jamais eu lieu.

Le danger principal des hallucinations réside dans leur apparence de crédibilité. Contrairement à un moteur de recherche qui affiche "aucun résultat", un LLM produira presque toujours une réponse, même quand il devrait admettre son ignorance. Cela peut conduire à la propagation de fausses informations, surtout lorsque l'utilisateur ne vérifie pas les sources.

Plusieurs techniques permettent de réduire les hallucinations : le Retrieval-Augmented Generation (RAG) qui ancre les réponses dans des documents vérifiés, le prompting avec demande de sources, la réduction de la température de génération, ou encore les instructions explicites demandant au modèle de dire "je ne sais pas" plutôt que d'inventer. La maîtrise de ce phénomène est un enjeu central du prompt engineering moderne.

Étymologie

Le terme "hallucination" est emprunté au vocabulaire médical et psychiatrique, où il désigne une perception sensorielle sans stimulus externe réel (du latin hallucinari, "errer en esprit"). Son adoption dans le domaine de l'IA date du début des années 2020, avec la démocratisation des grands modèles de langage, pour décrire par analogie la génération de contenus sans ancrage dans la réalité.

Exemples concrets

Demander des références bibliographiques à un LLM

Cite-moi 3 études scientifiques publiées après 2020 sur l'impact du sommeil sur la mémoire. IMPORTANT : ne cite que des études réelles avec leurs DOI. Si tu n'es pas certain qu'une référence existe, indique-le clairement.

Vérifier des faits historiques générés par l'IA

Quelle est la date exacte de la signature du traité de Westphalie ? Réponds uniquement si tu es certain de la date. Si tu as un doute, dis-le.

Réduire les hallucinations avec du contexte fourni (RAG)

En te basant UNIQUEMENT sur le document ci-dessous, réponds à la question. Si la réponse ne se trouve pas dans le document, réponds "Information non disponible dans le document fourni."

[Document : ...]

Question : Quel est le chiffre d'affaires 2024 de l'entreprise ?

Usage pratique

En prompt engineering, la lutte contre les hallucinations passe par des instructions explicites : demander au modèle de citer ses sources, de signaler son niveau de certitude, ou de répondre "je ne sais pas" quand l'information lui manque. Fournir du contexte pertinent directement dans le prompt (technique RAG) et baisser la température de génération sont également des leviers efficaces pour obtenir des réponses plus fiables.

Concepts liés

GroundingRetrieval-Augmented Generation (RAG)TempératureFaithfulness

FAQ

Pourquoi les modèles d'IA hallucinent-ils ?
Les LLM fonctionnent par prédiction statistique : ils génèrent le mot le plus probable après le précédent, sans véritable compréhension factuelle. Quand ils manquent d'information fiable sur un sujet, ils comblent les lacunes avec du texte plausible mais inventé, car leur objectif est de produire une réponse fluide, pas nécessairement vraie.
Comment détecter une hallucination dans une réponse d'IA ?
Les signes d'alerte incluent : des détails très précis sur des sujets obscurs (dates exactes, chiffres ronds), des citations d'études ou de livres introuvables en ligne, des affirmations formulées avec une certitude absolue sur des sujets controversés. La meilleure pratique reste de vérifier systématiquement les faits clés auprès de sources primaires.
Peut-on éliminer complètement les hallucinations ?
Non, pas avec les architectures actuelles de LLM. On peut cependant les réduire considérablement grâce à des techniques comme le RAG, le fine-tuning sur des données vérifiées, les instructions explicites dans le prompt, et la validation humaine. Les modèles récents hallucinent moins que leurs prédécesseurs, mais le risque zéro n'existe pas encore.

Voir aussi

Recevez de nouveaux prompts chaque semaine

Rejoignez notre newsletter.