·llm-safety-patterns
</>

llm-safety-patterns

Modelli di sicurezza per le integrazioni LLM, tra cui la difesa immediata dall'iniezione e la prevenzione delle allucinazioni. Da utilizzare quando si implementa la separazione del contesto, si convalidano gli output LLM o si protegge da attacchi di iniezione tempestiva.

14Installazioni·0Tendenza·@yonatangross

Installazione

$npx skills add https://github.com/yonatangross/orchestkit --skill llm-safety-patterns

Come installare llm-safety-patterns

Installa rapidamente la skill AI llm-safety-patterns nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/yonatangross/orchestkit --skill llm-safety-patterns
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: yonatangross/orchestkit.

Identifiers flow AROUND the LLM, not THROUGH it. The LLM sees only content. Attribution happens deterministically.

| userid | UUID | Can be hallucinated, enables cross-user access | | tenantid | UUID | Critical for multi-tenant isolation | | analysisid | UUID | Job tracking, not for LLM | | documentid | UUID | Source tracking, not for LLM | | artifactid | UUID | Output tracking, not for LLM | | chunkid | UUID | RAG reference, not for LLM |

| sessionid | str | Auth context, not for LLM | | traceid | str | Observability, not for LLM | | Any UUID | UUID | Pattern: [0-9a-f]{8}-... |

Modelli di sicurezza per le integrazioni LLM, tra cui la difesa immediata dall'iniezione e la prevenzione delle allucinazioni. Da utilizzare quando si implementa la separazione del contesto, si convalidano gli output LLM o si protegge da attacchi di iniezione tempestiva. Fonte: yonatangross/orchestkit.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/yonatangross/orchestkit --skill llm-safety-patterns
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-11

Browse more skills from yonatangross/orchestkit

Risposte rapide

Che cos'è llm-safety-patterns?

Modelli di sicurezza per le integrazioni LLM, tra cui la difesa immediata dall'iniezione e la prevenzione delle allucinazioni. Da utilizzare quando si implementa la separazione del contesto, si convalidano gli output LLM o si protegge da attacchi di iniezione tempestiva. Fonte: yonatangross/orchestkit.

Come installo llm-safety-patterns?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/yonatangross/orchestkit --skill llm-safety-patterns Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/yonatangross/orchestkit