P

Tree Of Thought : Définition et Exemples

Le Tree of Thought (ToT) est une technique de prompting avancée qui permet à un modèle de langage d'explorer plusieurs chemins de raisonnement en parallèle, sous forme d'arborescence, avant de sélectionner la solution la plus pertinente.

Définition complète

Le Tree of Thought (ToT), ou "arbre de pensée", est une méthode de prompting qui s'inspire des processus de résolution de problèmes humains. Contrairement au Chain of Thought classique qui suit un raisonnement linéaire étape par étape, le ToT permet au modèle d'explorer simultanément plusieurs pistes de réflexion, de les évaluer, et de revenir en arrière si une branche s'avère improductive.

Concrètement, le modèle génère plusieurs "pensées" intermédiaires à chaque étape du raisonnement, formant ainsi un arbre de possibilités. Chaque nœud de l'arbre représente un état partiel de la réflexion, et le modèle peut évaluer la promesse de chaque branche avant de décider laquelle approfondir. Ce mécanisme d'exploration et d'auto-évaluation reproduit la capacité humaine à envisager différentes approches face à un problème complexe.

Cette technique a été formalisée en 2023 par des chercheurs de Princeton et Google DeepMind (Yao et al.) dans leur article "Tree of Thoughts: Deliberate Problem Solving with Large Language Models". Leurs travaux ont démontré des améliorations significatives sur des tâches nécessitant de la planification, de la recherche stratégique et de la prise de décision, comme le jeu du 24, l'écriture créative ou les puzzles logiques.

Le ToT peut être implémenté de deux manières principales : via des prompts soigneusement construits qui demandent explicitement au modèle d'explorer plusieurs branches, ou via un framework externe qui orchestre les appels au modèle selon des algorithmes de recherche comme le BFS (parcours en largeur) ou le DFS (parcours en profondeur). Cette flexibilité en fait un outil puissant pour les tâches où une réponse directe serait insuffisante.

Étymologie

Le terme "Tree of Thought" est une extension directe du "Chain of Thought" (chaîne de pensée) introduit par Wei et al. en 2022. L'analogie passe de la chaîne (structure linéaire) à l'arbre (structure ramifiée), reflétant le passage d'un raisonnement séquentiel à un raisonnement exploratoire multi-branches. Le concept s'inspire également des arbres de recherche utilisés en informatique (arbres de décision, algorithmes minimax) et en sciences cognitives.

Exemples concrets

Résolution d'un problème mathématique complexe nécessitant d'explorer plusieurs approches

Je veux résoudre ce problème : [problème]. Génère 3 approches différentes pour le résoudre. Pour chaque approche, développe le raisonnement sur 2-3 étapes. Évalue ensuite chaque approche (prometteuse, incertaine ou impossible) et poursuis uniquement la plus prometteuse jusqu'à la solution finale.

Prise de décision stratégique en entreprise avec plusieurs options à évaluer

Notre startup doit choisir entre 3 stratégies de croissance : [A, B, C]. Pour chaque stratégie, explore les conséquences à 6 mois et 18 mois en considérant les risques et opportunités. Évalue chaque branche sur les critères coût, faisabilité et impact. Recommande la meilleure option en justifiant pourquoi les autres ont été écartées.

Écriture créative où plusieurs directions narratives sont possibles

Je travaille sur une nouvelle dont voici le début : [extrait]. Propose 3 directions narratives différentes pour la suite. Pour chacune, développe un paragraphe de continuation. Évalue laquelle crée le plus de tension dramatique et de cohérence avec le début, puis développe cette direction en 500 mots.

Usage pratique

Pour appliquer le Tree of Thought dans vos prompts, demandez explicitement au modèle de générer plusieurs pistes de raisonnement avant de converger vers une réponse. Structurez votre prompt en trois phases : exploration (générer N approches), évaluation (noter chaque approche selon des critères précis), et sélection (approfondir la meilleure branche). Cette technique est particulièrement efficace pour les problèmes de logique, la planification stratégique et les tâches créatives où la première intuition n'est pas toujours la meilleure.

Concepts liés

Chain of ThoughtSelf-ConsistencyGraph of ThoughtPrompt Chaining

FAQ

Quelle est la différence entre Chain of Thought et Tree of Thought ?
Le Chain of Thought (CoT) guide le modèle sur un seul chemin de raisonnement linéaire, étape par étape. Le Tree of Thought (ToT) explore plusieurs chemins simultanément et permet au modèle de revenir en arrière pour essayer une autre branche si une piste s'avère infructueuse. Le ToT est donc plus adapté aux problèmes complexes où la première approche n'est pas forcément la bonne.
Peut-on utiliser le Tree of Thought avec n'importe quel modèle de langage ?
Le Tree of Thought fonctionne mieux avec des modèles de grande taille capables d'auto-évaluation (comme Claude, GPT-4 ou Gemini). Les modèles plus petits peuvent avoir du mal à évaluer correctement la qualité de leurs propres raisonnements intermédiaires. Cependant, on peut implémenter le ToT via un framework externe qui orchestre les appels, ce qui le rend utilisable avec des modèles moins puissants.
Le Tree of Thought consomme-t-il plus de tokens qu'un prompt classique ?
Oui, le ToT consomme significativement plus de tokens car il génère plusieurs branches de raisonnement au lieu d'une seule. Le coût en tokens est généralement multiplié par le nombre de branches explorées. Il est donc recommandé de réserver cette technique aux problèmes suffisamment complexes pour justifier ce surcoût, et de limiter le nombre de branches et la profondeur d'exploration selon le budget disponible.

Voir aussi

Recevez de nouveaux prompts chaque semaine

Rejoignez notre newsletter.

Tree Of Thought : Définition et Exemples | Prompt Guide