deliberation-debate-red-teaming
✓當測試計劃或決策是否存在盲點、啟動前需要進行對抗性審查、針對最壞情況驗證策略、通過結構化辯論建立共識、識別攻擊向量或漏洞、用戶提及“扮演魔鬼代言人”、“可能會出錯的地方”、“挑戰我們的假設”、“對此進行壓力測試”、“紅隊”時,或者當群體思維或確認偏差可能隱藏風險時使用。
SKILL.md
Deliberation-debate-red-teaming is a structured adversarial process where you intentionally challenge plans, designs, or decisions from multiple critical perspectives to surface blind spots, hidden assumptions, and vulnerabilities before they cause real damage.
Result: Delay launch 2 weeks, address security/legal/ops gaps, add feature flag for gradual rollout
Ask user for the plan/decision to evaluate (specific proposal, not vague idea), stakes (what happens if this fails), current confidence level (how certain are they), and deadline (when must decision be made). Understanding stakes helps calibrate critique intensity. See Scoping Questions.
當測試計劃或決策是否存在盲點、啟動前需要進行對抗性審查、針對最壞情況驗證策略、通過結構化辯論建立共識、識別攻擊向量或漏洞、用戶提及“扮演魔鬼代言人”、“可能會出錯的地方”、“挑戰我們的假設”、“對此進行壓力測試”、“紅隊”時,或者當群體思維或確認偏差可能隱藏風險時使用。 來源:lyndonkl/claude。
可引用資訊
為搜尋與 AI 引用準備的穩定欄位與指令。
- 安裝指令
npx skills add https://github.com/lyndonkl/claude --skill deliberation-debate-red-teaming- 分類
- </>開發工具
- 認證
- ✓
- 收錄時間
- 2026-02-01
- 更新時間
- 2026-02-18
快速解答
什麼是 deliberation-debate-red-teaming?
當測試計劃或決策是否存在盲點、啟動前需要進行對抗性審查、針對最壞情況驗證策略、通過結構化辯論建立共識、識別攻擊向量或漏洞、用戶提及“扮演魔鬼代言人”、“可能會出錯的地方”、“挑戰我們的假設”、“對此進行壓力測試”、“紅隊”時,或者當群體思維或確認偏差可能隱藏風險時使用。 來源:lyndonkl/claude。
如何安裝 deliberation-debate-red-teaming?
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/lyndonkl/claude --skill deliberation-debate-red-teaming 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code 或 Cursor 中使用
這個 Skill 的原始碼在哪?
https://github.com/lyndonkl/claude