·deliberation-debate-red-teaming
</>

deliberation-debate-red-teaming

Da utilizzare quando si testano piani o decisioni per individuare punti ciechi, è necessaria una revisione contraddittoria prima del lancio, si convalida la strategia rispetto agli scenari peggiori, si crea consenso attraverso un dibattito strutturato, si identificano vettori di attacco o vulnerabilità, l'utente menziona "fai l'avvocato del diavolo", "cosa potrebbe andare storto", "sfida le nostre ipotesi", "stressa questo test", "squadra rossa" o quando il pensiero di gruppo o pregiudizi di conferma potrebbero nascondere dei rischi.

34Installazioni·0Tendenza·@lyndonkl

Installazione

$npx skills add https://github.com/lyndonkl/claude --skill deliberation-debate-red-teaming

Come installare deliberation-debate-red-teaming

Installa rapidamente la skill AI deliberation-debate-red-teaming nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/lyndonkl/claude --skill deliberation-debate-red-teaming
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: lyndonkl/claude.

Deliberation-debate-red-teaming is a structured adversarial process where you intentionally challenge plans, designs, or decisions from multiple critical perspectives to surface blind spots, hidden assumptions, and vulnerabilities before they cause real damage.

Result: Delay launch 2 weeks, address security/legal/ops gaps, add feature flag for gradual rollout

Ask user for the plan/decision to evaluate (specific proposal, not vague idea), stakes (what happens if this fails), current confidence level (how certain are they), and deadline (when must decision be made). Understanding stakes helps calibrate critique intensity. See Scoping Questions.

Da utilizzare quando si testano piani o decisioni per individuare punti ciechi, è necessaria una revisione contraddittoria prima del lancio, si convalida la strategia rispetto agli scenari peggiori, si crea consenso attraverso un dibattito strutturato, si identificano vettori di attacco o vulnerabilità, l'utente menziona "fai l'avvocato del diavolo", "cosa potrebbe andare storto", "sfida le nostre ipotesi", "stressa questo test", "squadra rossa" o quando il pensiero di gruppo o pregiudizi di conferma potrebbero nascondere dei rischi. Fonte: lyndonkl/claude.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/lyndonkl/claude --skill deliberation-debate-red-teaming
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-10

Browse more skills from lyndonkl/claude

Risposte rapide

Che cos'è deliberation-debate-red-teaming?

Da utilizzare quando si testano piani o decisioni per individuare punti ciechi, è necessaria una revisione contraddittoria prima del lancio, si convalida la strategia rispetto agli scenari peggiori, si crea consenso attraverso un dibattito strutturato, si identificano vettori di attacco o vulnerabilità, l'utente menziona "fai l'avvocato del diavolo", "cosa potrebbe andare storto", "sfida le nostre ipotesi", "stressa questo test", "squadra rossa" o quando il pensiero di gruppo o pregiudizi di conferma potrebbero nascondere dei rischi. Fonte: lyndonkl/claude.

Come installo deliberation-debate-red-teaming?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/lyndonkl/claude --skill deliberation-debate-red-teaming Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/lyndonkl/claude