·llm-safety-patterns
</>

llm-safety-patterns

yonatangross/skillforge-claude-plugin

Modèles de sécurité pour les intégrations LLM, y compris la défense contre les injections rapides et la prévention des hallucinations. À utiliser lors de la mise en œuvre de la séparation de contexte, de la validation des sorties LLM ou de la protection contre les attaques par injection rapide.

4Installations·0Tendance·@yonatangross

Installation

$npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill llm-safety-patterns

SKILL.md

Identifiers flow AROUND the LLM, not THROUGH it. The LLM sees only content. Attribution happens deterministically.

| userid | UUID | Can be hallucinated, enables cross-user access | | tenantid | UUID | Critical for multi-tenant isolation | | analysisid | UUID | Job tracking, not for LLM | | documentid | UUID | Source tracking, not for LLM | | artifactid | UUID | Output tracking, not for LLM | | chunkid | UUID | RAG reference, not for LLM |

| sessionid | str | Auth context, not for LLM | | traceid | str | Observability, not for LLM | | Any UUID | UUID | Pattern: [0-9a-f]{8}-... |

Modèles de sécurité pour les intégrations LLM, y compris la défense contre les injections rapides et la prévention des hallucinations. À utiliser lors de la mise en œuvre de la séparation de contexte, de la validation des sorties LLM ou de la protection contre les attaques par injection rapide. Source : yonatangross/skillforge-claude-plugin.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill llm-safety-patterns
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-01
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que llm-safety-patterns ?

Modèles de sécurité pour les intégrations LLM, y compris la défense contre les injections rapides et la prévention des hallucinations. À utiliser lors de la mise en œuvre de la séparation de contexte, de la validation des sorties LLM ou de la protection contre les attaques par injection rapide. Source : yonatangross/skillforge-claude-plugin.

Comment installer llm-safety-patterns ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill llm-safety-patterns Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/yonatangross/skillforge-claude-plugin