P

Generated Knowledge : Définition et Exemples

Technique de prompt engineering qui consiste à demander au modèle de générer des connaissances ou des faits pertinents sur un sujet avant de répondre à la question principale, améliorant ainsi la qualité et la précision de la réponse finale.

Définition complète

Le Generated Knowledge (ou "connaissance générée") est une technique avancée de prompt engineering introduite par Liu et al. en 2022. Elle repose sur un principe simple mais puissant : avant de demander à un modèle de langage de répondre à une question ou de réaliser une tâche, on lui demande d'abord de générer des connaissances factuelles pertinentes sur le sujet. Ces connaissances servent ensuite de contexte enrichi pour produire une réponse plus précise et mieux informée.

Le processus se déroule généralement en deux étapes distinctes. Dans la première étape (génération), on demande au modèle de produire des faits, des définitions ou des explications liées au sujet traité. Dans la seconde étape (intégration), on injecte ces connaissances générées dans un nouveau prompt qui contient la question finale. Cette approche permet au modèle de s'appuyer sur un raisonnement explicite plutôt que de puiser uniquement dans ses paramètres internes.

Cette technique est particulièrement efficace pour les tâches de raisonnement de sens commun, les questions factuelles complexes et les problèmes nécessitant une mise en contexte approfondie. Elle se distingue du Retrieval-Augmented Generation (RAG) en ce qu'elle n'utilise pas de source externe : le modèle génère lui-même les connaissances à partir de ce qu'il a appris pendant son entraînement.

Le Generated Knowledge peut être combiné avec d'autres techniques comme le Chain-of-Thought ou le Self-Consistency pour obtenir des résultats encore plus robustes. Son principal avantage est qu'il ne nécessite aucune infrastructure supplémentaire — pas de base de données vectorielle ni de pipeline de récupération — tout en améliorant significativement la fiabilité des réponses sur des sujets factuels.

Étymologie

Le terme a été formalisé dans l'article "Generated Knowledge Prompting for Commonsense Reasoning" publié par Jiacheng Liu et al. en 2022 (ACL). Il combine "generated" (généré par le modèle lui-même) et "knowledge" (connaissance factuelle), soulignant que le savoir utilisé pour améliorer la réponse provient du modèle et non d'une source externe.

Exemples concrets

Répondre à une question factuelle complexe en deux étapes

Étape 1 : "Génère 5 faits importants sur la photosynthèse et son rôle dans le cycle du carbone."

Étape 2 : "En utilisant les connaissances suivantes : [faits générés]. Explique pourquoi la déforestation accélère le changement climatique."

Améliorer un raisonnement de sens commun

Étape 1 : "Quelles sont les propriétés physiques du verre et du caoutchouc ? Liste leurs caractéristiques principales."

Étape 2 : "Sachant que : [connaissances générées]. Un objet tombe d'une table sur du carrelage. S'il rebondit, est-il plus probablement en verre ou en caoutchouc ? Explique."

Rédiger un contenu expert sans base de données externe

Étape 1 : "Liste les principes clés de la théorie de l'attachement de Bowlby, ses applications modernes et les critiques principales."

Étape 2 : "En t'appuyant sur ces connaissances : [résultat étape 1]. Rédige un article de vulgarisation sur l'impact du style d'attachement parental sur le développement émotionnel de l'enfant."

Usage pratique

Pour appliquer le Generated Knowledge, structurez vos prompts en deux phases : demandez d'abord au modèle de lister les faits et connaissances pertinents sur votre sujet, puis utilisez ces informations comme contexte dans un second prompt contenant votre question réelle. Cette approche est idéale lorsque vous n'avez pas accès à une base de connaissances externe mais souhaitez améliorer la fiabilité factuelle des réponses. Vous pouvez aussi générer plusieurs ensembles de connaissances et sélectionner le plus pertinent avant de formuler votre requête finale.

Concepts liés

Chain-of-Thought PromptingRetrieval-Augmented Generation (RAG)Self-ConsistencyFew-Shot Prompting

FAQ

Quelle est la différence entre Generated Knowledge et RAG ?
Le RAG (Retrieval-Augmented Generation) récupère des informations depuis des sources externes (bases de données, documents) pour enrichir le contexte du modèle. Le Generated Knowledge, en revanche, demande au modèle de produire lui-même les connaissances à partir de son entraînement. Le RAG est plus fiable pour des données récentes ou très spécifiques, tandis que le Generated Knowledge ne nécessite aucune infrastructure supplémentaire.
Le Generated Knowledge peut-il produire des informations fausses ?
Oui, c'est la principale limite de cette technique. Puisque les connaissances sont générées par le modèle lui-même, elles peuvent contenir des hallucinations ou des inexactitudes. Il est recommandé de générer plusieurs ensembles de connaissances et de les croiser, ou de combiner cette technique avec une vérification externe pour les sujets critiques.
Quand utiliser le Generated Knowledge plutôt que le Chain-of-Thought ?
Le Chain-of-Thought est optimal pour les problèmes de raisonnement logique et mathématique, où le modèle doit détailler ses étapes de réflexion. Le Generated Knowledge est plus adapté aux tâches nécessitant des connaissances factuelles ou contextuelles, comme les questions de culture générale, le raisonnement de sens commun ou la rédaction de contenu expert. Les deux techniques peuvent être combinées pour des résultats optimaux.

Voir aussi

Recevez de nouveaux prompts chaque semaine

Rejoignez notre newsletter.

Generated Knowledge : Définition et Exemples | Prompt Guide