Generated Knowledge : Définition et Exemples
Technique de prompt engineering qui consiste à demander au modèle de générer des connaissances ou des faits pertinents sur un sujet avant de répondre à la question principale, améliorant ainsi la qualité et la précision de la réponse finale.
Définition complète
Le Generated Knowledge (ou "connaissance générée") est une technique avancée de prompt engineering introduite par Liu et al. en 2022. Elle repose sur un principe simple mais puissant : avant de demander à un modèle de langage de répondre à une question ou de réaliser une tâche, on lui demande d'abord de générer des connaissances factuelles pertinentes sur le sujet. Ces connaissances servent ensuite de contexte enrichi pour produire une réponse plus précise et mieux informée.
Le processus se déroule généralement en deux étapes distinctes. Dans la première étape (génération), on demande au modèle de produire des faits, des définitions ou des explications liées au sujet traité. Dans la seconde étape (intégration), on injecte ces connaissances générées dans un nouveau prompt qui contient la question finale. Cette approche permet au modèle de s'appuyer sur un raisonnement explicite plutôt que de puiser uniquement dans ses paramètres internes.
Cette technique est particulièrement efficace pour les tâches de raisonnement de sens commun, les questions factuelles complexes et les problèmes nécessitant une mise en contexte approfondie. Elle se distingue du Retrieval-Augmented Generation (RAG) en ce qu'elle n'utilise pas de source externe : le modèle génère lui-même les connaissances à partir de ce qu'il a appris pendant son entraînement.
Le Generated Knowledge peut être combiné avec d'autres techniques comme le Chain-of-Thought ou le Self-Consistency pour obtenir des résultats encore plus robustes. Son principal avantage est qu'il ne nécessite aucune infrastructure supplémentaire — pas de base de données vectorielle ni de pipeline de récupération — tout en améliorant significativement la fiabilité des réponses sur des sujets factuels.
Étymologie
Le terme a été formalisé dans l'article "Generated Knowledge Prompting for Commonsense Reasoning" publié par Jiacheng Liu et al. en 2022 (ACL). Il combine "generated" (généré par le modèle lui-même) et "knowledge" (connaissance factuelle), soulignant que le savoir utilisé pour améliorer la réponse provient du modèle et non d'une source externe.
Exemples concrets
Répondre à une question factuelle complexe en deux étapes
Étape 1 : "Génère 5 faits importants sur la photosynthèse et son rôle dans le cycle du carbone." Étape 2 : "En utilisant les connaissances suivantes : [faits générés]. Explique pourquoi la déforestation accélère le changement climatique."
Améliorer un raisonnement de sens commun
Étape 1 : "Quelles sont les propriétés physiques du verre et du caoutchouc ? Liste leurs caractéristiques principales." Étape 2 : "Sachant que : [connaissances générées]. Un objet tombe d'une table sur du carrelage. S'il rebondit, est-il plus probablement en verre ou en caoutchouc ? Explique."
Rédiger un contenu expert sans base de données externe
Étape 1 : "Liste les principes clés de la théorie de l'attachement de Bowlby, ses applications modernes et les critiques principales." Étape 2 : "En t'appuyant sur ces connaissances : [résultat étape 1]. Rédige un article de vulgarisation sur l'impact du style d'attachement parental sur le développement émotionnel de l'enfant."
Usage pratique
Pour appliquer le Generated Knowledge, structurez vos prompts en deux phases : demandez d'abord au modèle de lister les faits et connaissances pertinents sur votre sujet, puis utilisez ces informations comme contexte dans un second prompt contenant votre question réelle. Cette approche est idéale lorsque vous n'avez pas accès à une base de connaissances externe mais souhaitez améliorer la fiabilité factuelle des réponses. Vous pouvez aussi générer plusieurs ensembles de connaissances et sélectionner le plus pertinent avant de formuler votre requête finale.
Concepts liés
FAQ
Quelle est la différence entre Generated Knowledge et RAG ?
Le Generated Knowledge peut-il produire des informations fausses ?
Quand utiliser le Generated Knowledge plutôt que le Chain-of-Thought ?
Voir aussi
Recevez de nouveaux prompts chaque semaine
Rejoignez notre newsletter.