·deliberation-debate-red-teaming
</>

deliberation-debate-red-teaming

lyndonkl/claude

Wird verwendet, wenn Pläne oder Entscheidungen auf blinde Flecken getestet werden müssen, vor der Einführung eine kontradiktorische Überprüfung erforderlich ist, eine Strategie anhand von Worst-Case-Szenarien validiert wird, durch strukturierte Debatten ein Konsens erzielt wird, Angriffsvektoren oder Schwachstellen identifiziert werden, Benutzer Erwähnungen wie „Devil's Advokat spielen“, „Was könnte schief gehen“, „Unsere Annahmen in Frage stellen“, „Stresstest durchführen“, „Rotes Team“ machen oder wenn Gruppendenken oder Bestätigungsvoreingenommenheit Risiken verbergen könnten.

26Installationen·0Trend·@lyndonkl

Installation

$npx skills add https://github.com/lyndonkl/claude --skill deliberation-debate-red-teaming

SKILL.md

Deliberation-debate-red-teaming is a structured adversarial process where you intentionally challenge plans, designs, or decisions from multiple critical perspectives to surface blind spots, hidden assumptions, and vulnerabilities before they cause real damage.

Result: Delay launch 2 weeks, address security/legal/ops gaps, add feature flag for gradual rollout

Ask user for the plan/decision to evaluate (specific proposal, not vague idea), stakes (what happens if this fails), current confidence level (how certain are they), and deadline (when must decision be made). Understanding stakes helps calibrate critique intensity. See Scoping Questions.

Wird verwendet, wenn Pläne oder Entscheidungen auf blinde Flecken getestet werden müssen, vor der Einführung eine kontradiktorische Überprüfung erforderlich ist, eine Strategie anhand von Worst-Case-Szenarien validiert wird, durch strukturierte Debatten ein Konsens erzielt wird, Angriffsvektoren oder Schwachstellen identifiziert werden, Benutzer Erwähnungen wie „Devil's Advokat spielen“, „Was könnte schief gehen“, „Unsere Annahmen in Frage stellen“, „Stresstest durchführen“, „Rotes Team“ machen oder wenn Gruppendenken oder Bestätigungsvoreingenommenheit Risiken verbergen könnten. Quelle: lyndonkl/claude.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/lyndonkl/claude --skill deliberation-debate-red-teaming
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-01
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist deliberation-debate-red-teaming?

Wird verwendet, wenn Pläne oder Entscheidungen auf blinde Flecken getestet werden müssen, vor der Einführung eine kontradiktorische Überprüfung erforderlich ist, eine Strategie anhand von Worst-Case-Szenarien validiert wird, durch strukturierte Debatten ein Konsens erzielt wird, Angriffsvektoren oder Schwachstellen identifiziert werden, Benutzer Erwähnungen wie „Devil's Advokat spielen“, „Was könnte schief gehen“, „Unsere Annahmen in Frage stellen“, „Stresstest durchführen“, „Rotes Team“ machen oder wenn Gruppendenken oder Bestätigungsvoreingenommenheit Risiken verbergen könnten. Quelle: lyndonkl/claude.

Wie installiere ich deliberation-debate-red-teaming?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/lyndonkl/claude --skill deliberation-debate-red-teaming Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/lyndonkl/claude