Chain-of-Thought (CoT) prompting and its variants encourage LLMs to generate intermediate reasoning steps before arriving at a final answer, significantly improving performance on complex reasoning tasks. These techniques transform how models approach problems by making implicit reasoning explicit.
| Technique | When to Use | Complexity | Accuracy Gain |
| Zero-shot CoT | Quick reasoning, no examples available | Low | +20-60% | | Few-shot CoT | Have good examples, consistent format needed | Medium | +30-70% | | Self-Consistency | High-stakes decisions, need confidence | Medium | +10-20% over CoT | | Tree of Thoughts | Complex problems requiring exploration | High | +50-70% on hard tasks |
단계별 논리, 다단계 산술, 상식 추론, 기호 조작이 필요한 복잡한 추론 작업을 처리할 때 사용하거나 간단한 프롬프트가 실패하는 문제 - 템플릿, 결정 매트릭스 및 연구 지원 패턴을 통해 사고 사슬 및 관련 프롬프트 기술(제로샷 CoT, 자기 일관성, 생각의 나무, 최소 대 최대, ReAct, PAL, 반사)에 대한 포괄적인 가이드를 제공합니다. 출처: neolabhq/context-engineering-kit.