deliberation-debate-red-teaming
✓Wird verwendet, wenn Pläne oder Entscheidungen auf blinde Flecken getestet werden müssen, vor der Einführung eine kontradiktorische Überprüfung erforderlich ist, eine Strategie anhand von Worst-Case-Szenarien validiert wird, durch strukturierte Debatten ein Konsens erzielt wird, Angriffsvektoren oder Schwachstellen identifiziert werden, Benutzer Erwähnungen wie „Devil's Advokat spielen“, „Was könnte schief gehen“, „Unsere Annahmen in Frage stellen“, „Stresstest durchführen“, „Rotes Team“ machen oder wenn Gruppendenken oder Bestätigungsvoreingenommenheit Risiken verbergen könnten.
Installation
SKILL.md
Deliberation-debate-red-teaming is a structured adversarial process where you intentionally challenge plans, designs, or decisions from multiple critical perspectives to surface blind spots, hidden assumptions, and vulnerabilities before they cause real damage.
Result: Delay launch 2 weeks, address security/legal/ops gaps, add feature flag for gradual rollout
Ask user for the plan/decision to evaluate (specific proposal, not vague idea), stakes (what happens if this fails), current confidence level (how certain are they), and deadline (when must decision be made). Understanding stakes helps calibrate critique intensity. See Scoping Questions.
Wird verwendet, wenn Pläne oder Entscheidungen auf blinde Flecken getestet werden müssen, vor der Einführung eine kontradiktorische Überprüfung erforderlich ist, eine Strategie anhand von Worst-Case-Szenarien validiert wird, durch strukturierte Debatten ein Konsens erzielt wird, Angriffsvektoren oder Schwachstellen identifiziert werden, Benutzer Erwähnungen wie „Devil's Advokat spielen“, „Was könnte schief gehen“, „Unsere Annahmen in Frage stellen“, „Stresstest durchführen“, „Rotes Team“ machen oder wenn Gruppendenken oder Bestätigungsvoreingenommenheit Risiken verbergen könnten. Quelle: lyndonkl/claude.
Fakten (zitierbereit)
Stabile Felder und Befehle für KI/Such-Zitate.
- Installationsbefehl
npx skills add https://github.com/lyndonkl/claude --skill deliberation-debate-red-teaming- Quelle
- lyndonkl/claude
- Kategorie
- </>Entwicklung
- Verifiziert
- ✓
- Erstes Auftreten
- 2026-02-01
- Aktualisiert
- 2026-02-18
Schnelle Antworten
Was ist deliberation-debate-red-teaming?
Wird verwendet, wenn Pläne oder Entscheidungen auf blinde Flecken getestet werden müssen, vor der Einführung eine kontradiktorische Überprüfung erforderlich ist, eine Strategie anhand von Worst-Case-Szenarien validiert wird, durch strukturierte Debatten ein Konsens erzielt wird, Angriffsvektoren oder Schwachstellen identifiziert werden, Benutzer Erwähnungen wie „Devil's Advokat spielen“, „Was könnte schief gehen“, „Unsere Annahmen in Frage stellen“, „Stresstest durchführen“, „Rotes Team“ machen oder wenn Gruppendenken oder Bestätigungsvoreingenommenheit Risiken verbergen könnten. Quelle: lyndonkl/claude.
Wie installiere ich deliberation-debate-red-teaming?
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/lyndonkl/claude --skill deliberation-debate-red-teaming Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Wo ist das Quell-Repository?
https://github.com/lyndonkl/claude
Details
- Kategorie
- </>Entwicklung
- Quelle
- skills.sh
- Erstes Auftreten
- 2026-02-01