·red-teaming
!

red-teaming

Méthodologie complète de red teaming pour les systèmes de cybersécurité et d'IA/LLM. À utiliser lors de l'émulation d'un adversaire, d'une évaluation des vulnérabilités, d'une simulation d'attaque ou d'une validation de sécurité. Déclenchez les demandes de tests d'intrusion, de modélisation des menaces, d'audits de sécurité, d'opérations MITRE ATT&CK, de tests de sécurité LLM, d'attaques par injection rapide ou de validation de conformité (OWASP, NIST, TIBER, DORA, EU AI Act). Appliquez-le lorsque les utilisateurs demandent de « tester comme un attaquant », « d'équiper notre système », de « valider la posture de sécurité », « d'évaluer les vulnérabilités LLM » ou de « simuler des cyberattaques ». Comprend des cadres de planification, des stratégies d'exécution, des modèles de reporting et des références progressives à des techniques et outils d'attaque spécialisés.

7Installations·1Tendance·@rfxlamia

Installation

$npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming

Comment installer red-teaming

Installez rapidement le skill IA red-teaming dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : rfxlamia/claude-skillkit.

Red teaming is a structured adversarial approach to testing organizational security posture by simulating real-world attacks. This skill provides comprehensive methodology for both traditional cybersecurity red teaming (network, physical, social engineering) and AI/LLM red teaming (prompt injection, jailbreaking, safety testing).

Core Philosophy: Think like an attacker, operate covertly, test holistically, document thoroughly.

| Aspect | Red Teaming | Penetration Testing | Vulnerability Assessment |

Méthodologie complète de red teaming pour les systèmes de cybersécurité et d'IA/LLM. À utiliser lors de l'émulation d'un adversaire, d'une évaluation des vulnérabilités, d'une simulation d'attaque ou d'une validation de sécurité. Déclenchez les demandes de tests d'intrusion, de modélisation des menaces, d'audits de sécurité, d'opérations MITRE ATT&CK, de tests de sécurité LLM, d'attaques par injection rapide ou de validation de conformité (OWASP, NIST, TIBER, DORA, EU AI Act). Appliquez-le lorsque les utilisateurs demandent de « tester comme un attaquant », « d'équiper notre système », de « valider la posture de sécurité », « d'évaluer les vulnérabilités LLM » ou de « simuler des cyberattaques ». Comprend des cadres de planification, des stratégies d'exécution, des modèles de reporting et des références progressives à des techniques et outils d'attaque spécialisés. Source : rfxlamia/claude-skillkit.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming
Catégorie
!Sécurité
Vérifié
Première apparition
2026-02-25
Mis à jour
2026-03-10

Browse more skills from rfxlamia/claude-skillkit

Réponses rapides

Qu'est-ce que red-teaming ?

Méthodologie complète de red teaming pour les systèmes de cybersécurité et d'IA/LLM. À utiliser lors de l'émulation d'un adversaire, d'une évaluation des vulnérabilités, d'une simulation d'attaque ou d'une validation de sécurité. Déclenchez les demandes de tests d'intrusion, de modélisation des menaces, d'audits de sécurité, d'opérations MITRE ATT&CK, de tests de sécurité LLM, d'attaques par injection rapide ou de validation de conformité (OWASP, NIST, TIBER, DORA, EU AI Act). Appliquez-le lorsque les utilisateurs demandent de « tester comme un attaquant », « d'équiper notre système », de « valider la posture de sécurité », « d'évaluer les vulnérabilités LLM » ou de « simuler des cyberattaques ». Comprend des cadres de planification, des stratégies d'exécution, des modèles de reporting et des références progressives à des techniques et outils d'attaque spécialisés. Source : rfxlamia/claude-skillkit.

Comment installer red-teaming ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/rfxlamia/claude-skillkit