llm-attacks-security
Guide pour les attaques de sécurité LLM : injection rapide, jailbreak, extraction de données et où placer les ressources dans README.md.
Installation
SKILL.md
For detailed and up-to-date resources, fetch the complete list from:
Use this URL to get the latest curated links when you need specific tools, papers, or resources not covered in this skill.
Guide pour les attaques de sécurité LLM : injection rapide, jailbreak, extraction de données et où placer les ressources dans README.md. Source : gmh5225/awesome-ai-security.
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/gmh5225/awesome-ai-security --skill llm-attacks-security Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/gmh5225/awesome-ai-security --skill llm-attacks-security- Catégorie
- !Sécurité
- Vérifié
- —
- Première apparition
- 2026-02-01
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que llm-attacks-security ?
Guide pour les attaques de sécurité LLM : injection rapide, jailbreak, extraction de données et où placer les ressources dans README.md. Source : gmh5225/awesome-ai-security.
Comment installer llm-attacks-security ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/gmh5225/awesome-ai-security --skill llm-attacks-security Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/gmh5225/awesome-ai-security
Détails
- Catégorie
- !Sécurité
- Source
- user
- Première apparition
- 2026-02-01