·pentest-ai-llm-security
!

pentest-ai-llm-security

Tests de sécurité des applications AI/LLM — injection rapide, jailbreak, exfiltration de données et gestion des sorties non sécurisées selon OWASP LLM Top 10.

22Installations·1Tendance·@jd-opensource

Installation

$npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security

Comment installer pentest-ai-llm-security

Installez rapidement le skill IA pentest-ai-llm-security dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : jd-opensource/joysafeter.

Purpose AI-integrated applications introduce entirely new attack surfaces. Prompt injection is the "SQLi of AI." Neither Shannon nor any existing skill addresses this domain. OWASP LLM Top 10 (2025) defines the methodology.

| LLM01 Prompt Injection | Direct and indirect injection | ✅ | | LLM02 Sensitive Information Disclosure | Data exfiltration, PII leakage | ✅ | | LLM03 Supply Chain | Model provenance, plugin trust | ✅ | | LLM04 Data and Model Poisoning | Training data integrity | ✅ | | LLM05 Improper Output Handling | XSS/SQLi via LLM output | ✅ |

| LLM06 Excessive Agency | Unauthorized tool use | ✅ | | LLM07 System Prompt Leakage | System prompt extraction | ✅ | | LLM08 Vector and Embedding Weaknesses | RAG poisoning | ✅ | | LLM09 Misinformation | Hallucination exploitation | ✅ | | LLM10 Unbounded Consumption | Resource exhaustion | ✅ |

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security
Catégorie
!Sécurité
Vérifié
Première apparition
2026-02-26
Mis à jour
2026-03-10

Browse more skills from jd-opensource/joysafeter

Réponses rapides

Qu'est-ce que pentest-ai-llm-security ?

Tests de sécurité des applications AI/LLM — injection rapide, jailbreak, exfiltration de données et gestion des sorties non sécurisées selon OWASP LLM Top 10. Source : jd-opensource/joysafeter.

Comment installer pentest-ai-llm-security ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/jd-opensource/joysafeter