·red-teaming
!

red-teaming

Metodologia completa di red teaming sia per la sicurezza informatica che per i sistemi AI/LLM. Da utilizzare durante l'esecuzione di emulazione dell'avversario, valutazione della vulnerabilità, simulazione di attacchi o convalida della sicurezza. Attivazione su richieste di test di penetrazione, modellazione delle minacce, audit di sicurezza, operazioni MITRE ATT&CK, test di sicurezza LLM, attacchi di iniezione tempestiva o convalida della conformità (OWASP, NIST, TIBER, DORA, EU AI Act). Si applica quando gli utenti chiedono di "testare come un utente malintenzionato", "squadrare il nostro sistema", "convalidare il livello di sicurezza", "valutare le vulnerabilità LLM" o "simulare attacchi informatici". Include strutture di pianificazione, strategie di esecuzione, modelli di reporting e riferimenti progressivi a tecniche e strumenti di attacco specializzati.

7Installazioni·1Tendenza·@rfxlamia

Installazione

$npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming

Come installare red-teaming

Installa rapidamente la skill AI red-teaming nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: rfxlamia/claude-skillkit.

Red teaming is a structured adversarial approach to testing organizational security posture by simulating real-world attacks. This skill provides comprehensive methodology for both traditional cybersecurity red teaming (network, physical, social engineering) and AI/LLM red teaming (prompt injection, jailbreaking, safety testing).

Core Philosophy: Think like an attacker, operate covertly, test holistically, document thoroughly.

| Aspect | Red Teaming | Penetration Testing | Vulnerability Assessment |

Metodologia completa di red teaming sia per la sicurezza informatica che per i sistemi AI/LLM. Da utilizzare durante l'esecuzione di emulazione dell'avversario, valutazione della vulnerabilità, simulazione di attacchi o convalida della sicurezza. Attivazione su richieste di test di penetrazione, modellazione delle minacce, audit di sicurezza, operazioni MITRE ATT&CK, test di sicurezza LLM, attacchi di iniezione tempestiva o convalida della conformità (OWASP, NIST, TIBER, DORA, EU AI Act). Si applica quando gli utenti chiedono di "testare come un utente malintenzionato", "squadrare il nostro sistema", "convalidare il livello di sicurezza", "valutare le vulnerabilità LLM" o "simulare attacchi informatici". Include strutture di pianificazione, strategie di esecuzione, modelli di reporting e riferimenti progressivi a tecniche e strumenti di attacco specializzati. Fonte: rfxlamia/claude-skillkit.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming
Categoria
!Sicurezza
Verificato
Prima apparizione
2026-02-25
Aggiornato
2026-03-10

Browse more skills from rfxlamia/claude-skillkit

Risposte rapide

Che cos'è red-teaming?

Metodologia completa di red teaming sia per la sicurezza informatica che per i sistemi AI/LLM. Da utilizzare durante l'esecuzione di emulazione dell'avversario, valutazione della vulnerabilità, simulazione di attacchi o convalida della sicurezza. Attivazione su richieste di test di penetrazione, modellazione delle minacce, audit di sicurezza, operazioni MITRE ATT&CK, test di sicurezza LLM, attacchi di iniezione tempestiva o convalida della conformità (OWASP, NIST, TIBER, DORA, EU AI Act). Si applica quando gli utenti chiedono di "testare come un utente malintenzionato", "squadrare il nostro sistema", "convalidare il livello di sicurezza", "valutare le vulnerabilità LLM" o "simulare attacchi informatici". Include strutture di pianificazione, strategie di esecuzione, modelli di reporting e riferimenti progressivi a tecniche e strumenti di attacco specializzati. Fonte: rfxlamia/claude-skillkit.

Come installo red-teaming?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/rfxlamia/claude-skillkit