Chain-of-Thought (CoT) prompting and its variants encourage LLMs to generate intermediate reasoning steps before arriving at a final answer, significantly improving performance on complex reasoning tasks. These techniques transform how models approach problems by making implicit reasoning explicit.
| Technique | When to Use | Complexity | Accuracy Gain |
| Zero-shot CoT | Quick reasoning, no examples available | Low | +20-60% | | Few-shot CoT | Have good examples, consistent format needed | Medium | +30-70% | | Self-Consistency | High-stakes decisions, need confidence | Medium | +10-20% over CoT | | Tree of Thoughts | Complex problems requiring exploration | High | +50-70% on hard tasks |
Используйте при решении сложных задач рассуждения, требующих пошаговой логики, многошаговой арифметики, рассуждений на основе здравого смысла, символических манипуляций или проблем, когда простые подсказки не помогают. Предоставляет подробное руководство по цепочке мыслей и связанным с ними методам подсказок (нулевой ЦП, самосогласованность, древо мыслей, от наименьшего к большинству, ReAct, PAL, рефлексия) с шаблонами, матрицами решений и шаблонами, подтвержденными исследованиями. Источник: neolabhq/context-engineering-kit.