context-compression
✓設計和評估長時間運行會話的壓縮策略
SKILL.md
When agent sessions generate millions of tokens of conversation history, compression becomes mandatory. The naive approach is aggressive compression to minimize tokens per request. The correct optimization target is tokens per task: total tokens consumed to complete a task, including re-fetching costs when compression loses critical information.
Context compression trades token savings against information loss. Three production-ready approaches exist:
The critical insight: structure forces preservation. Dedicated sections act as checklists that the summarizer must populate, preventing silent information drift.
設計和評估長時間運行會話的壓縮策略 來源:sickn33/antigravity-awesome-skills。
可引用資訊
為搜尋與 AI 引用準備的穩定欄位與指令。
- 安裝指令
npx skills add https://github.com/sickn33/antigravity-awesome-skills --skill context-compression- 分類
- </>開發工具
- 認證
- ✓
- 收錄時間
- 2026-02-02
- 更新時間
- 2026-02-18
快速解答
什麼是 context-compression?
設計和評估長時間運行會話的壓縮策略 來源:sickn33/antigravity-awesome-skills。
如何安裝 context-compression?
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/sickn33/antigravity-awesome-skills --skill context-compression 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code 或 Cursor 中使用
這個 Skill 的原始碼在哪?
https://github.com/sickn33/antigravity-awesome-skills
詳情
- 分類
- </>開發工具
- 來源
- skills.sh
- 收錄時間
- 2026-02-02