Chain-of-Thought (CoT) prompting and its variants encourage LLMs to generate intermediate reasoning steps before arriving at a final answer, significantly improving performance on complex reasoning tasks. These techniques transform how models approach problems by making implicit reasoning explicit.
| Technique | When to Use | Complexity | Accuracy Gain |
| Zero-shot CoT | Quick reasoning, no examples available | Low | +20-60% | | Few-shot CoT | Have good examples, consistent format needed | Medium | +30-70% | | Self-Consistency | High-stakes decisions, need confidence | Medium | +10-20% over CoT | | Tree of Thoughts | Complex problems requiring exploration | High | +50-70% on hard tasks |
Используйте при решении сложных задач рассуждения, требующих пошаговой логики, многошаговой арифметики, рассуждений на основе здравого смысла, символических манипуляций или проблем, в которых простые подсказки не помогают. Предоставляет подробное руководство по цепочке мыслей и связанным с ними методам подсказок (нулевой ЦП, самосогласованность, древо мыслей, от наименьшего к большинству, ReAct, PAL, рефлексия) с шаблонами, матрицами решений и шаблонами, подтвержденными исследованиями. Источник: neolabhq/context-engineering-kit.