ai-threat-testing
✓Cadre de test et d'exploitation de la sécurité de l'IA offensive. Teste systématiquement les applications LLM pour détecter les 10 principales vulnérabilités de l'OWASP, notamment l'injection rapide, l'extraction de modèles, l'empoisonnement des données et les attaques de la chaîne d'approvisionnement. S'intègre aux workflows pentest pour découvrir et exploiter les menaces spécifiques à l'IA.
Installation
SKILL.md
This skill orchestrates comprehensive AI threat testing across LLM applications and systems. Use this to perform authorized penetration testing of AI systems, discover vulnerabilities, and document findings with proof-of-concept exploits.
Agent 1: Prompt Injection Testing Tests: LLM01 - Direct and indirect prompt injection
Agent 2: Output Handling Exploitation Tests: LLM02 - Insecure output handling
Cadre de test et d'exploitation de la sécurité de l'IA offensive. Teste systématiquement les applications LLM pour détecter les 10 principales vulnérabilités de l'OWASP, notamment l'injection rapide, l'extraction de modèles, l'empoisonnement des données et les attaques de la chaîne d'approvisionnement. S'intègre aux workflows pentest pour découvrir et exploiter les menaces spécifiques à l'IA. Source : transilienceai/communitytools.
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/transilienceai/communitytools --skill ai-threat-testing- Catégorie
- !Sécurité
- Vérifié
- ✓
- Première apparition
- 2026-02-05
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que ai-threat-testing ?
Cadre de test et d'exploitation de la sécurité de l'IA offensive. Teste systématiquement les applications LLM pour détecter les 10 principales vulnérabilités de l'OWASP, notamment l'injection rapide, l'extraction de modèles, l'empoisonnement des données et les attaques de la chaîne d'approvisionnement. S'intègre aux workflows pentest pour découvrir et exploiter les menaces spécifiques à l'IA. Source : transilienceai/communitytools.
Comment installer ai-threat-testing ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/transilienceai/communitytools --skill ai-threat-testing Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/transilienceai/communitytools
Détails
- Catégorie
- !Sécurité
- Source
- skills.sh
- Première apparition
- 2026-02-05