Chain-of-Thought (CoT) prompting and its variants encourage LLMs to generate intermediate reasoning steps before arriving at a final answer, significantly improving performance on complex reasoning tasks. These techniques transform how models approach problems by making implicit reasoning explicit.
| Technique | When to Use | Complexity | Accuracy Gain |
| Zero-shot CoT | Quick reasoning, no examples available | Low | +20-60% | | Few-shot CoT | Have good examples, consistent format needed | Medium | +30-70% | | Self-Consistency | High-stakes decisions, need confidence | Medium | +10-20% over CoT | | Tree of Thoughts | Complex problems requiring exploration | High | +50-70% on hard tasks |
À utiliser lors de tâches de raisonnement complexes nécessitant une logique étape par étape, une arithmétique en plusieurs étapes, un raisonnement de bon sens, une manipulation symbolique ou des problèmes pour lesquels une simple invite échoue - fournit un guide complet sur la chaîne de pensée et les techniques d'invite associées (Zero-shot CoT, auto-cohérence, arbre de pensées, du moins au plus, ReAct, PAL, réflexion) avec des modèles, des matrices de décision et des modèles basés sur la recherche. Source : neolabhq/context-engineering-kit.