Chain-of-Thought (CoT) prompting and its variants encourage LLMs to generate intermediate reasoning steps before arriving at a final answer, significantly improving performance on complex reasoning tasks. These techniques transform how models approach problems by making implicit reasoning explicit.
| Technique | When to Use | Complexity | Accuracy Gain |
| Zero-shot CoT | Quick reasoning, no examples available | Low | +20-60% | | Few-shot CoT | Have good examples, consistent format needed | Medium | +30-70% | | Self-Consistency | High-stakes decisions, need confidence | Medium | +10-20% over CoT | | Tree of Thoughts | Complex problems requiring exploration | High | +50-70% on hard tasks |
Zur Verwendung bei der Bewältigung komplexer Denkaufgaben, die Schritt-für-Schritt-Logik, mehrstufige Arithmetik, vernünftiges Denken, symbolische Manipulation erfordern, oder bei Problemen, bei denen einfache Eingabeaufforderungen versagen. Bietet einen umfassenden Leitfaden für Chain-of-Thought und verwandte Eingabeaufforderungstechniken (Zero-Shot-CoT, Selbstkonsistenz, Gedankenbaum, Least-to-Most, ReAct, PAL, Reflexion) mit Vorlagen, Entscheidungsmatrizen und forschungsgestützten Mustern Quelle: neolabhq/context-engineering-kit.