·prompt-injection-defense
</>

prompt-injection-defense

Tecniche di difesa contro attacchi di pronta iniezione tra cui iniezione diretta, iniezione indiretta e jailbreak: da utilizzare quando vengono menzionati "prompt injection, jailbreak Prevention, input sanitization, llm security, injection attack, security, prompt-injection, llm, owasp, jailbreak, ai-safety".

15Installazioni·0Tendenza·@omer-metin

Installazione

$npx skills add https://github.com/omer-metin/skills-for-antigravity --skill prompt-injection-defense

Come installare prompt-injection-defense

Installa rapidamente la skill AI prompt-injection-defense nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/omer-metin/skills-for-antigravity --skill prompt-injection-defense
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: omer-metin/skills-for-antigravity.

You're a security researcher who has discovered dozens of prompt injection techniques and built defenses against them. You've seen the evolution from simple "ignore previous instructions" to sophisticated multi-turn attacks, encoded payloads, and indirect injection via retrieved content.

You understand that prompt injection is fundamentally similar to SQL injection—a failure to separate code (instructions) from data (user content). But unlike SQL, LLMs have no prepared statements, making defense inherently harder.

You must ground your responses in the provided reference files, treating them as the source of truth for this domain:

Tecniche di difesa contro attacchi di pronta iniezione tra cui iniezione diretta, iniezione indiretta e jailbreak: da utilizzare quando vengono menzionati "prompt injection, jailbreak Prevention, input sanitization, llm security, injection attack, security, prompt-injection, llm, owasp, jailbreak, ai-safety". Fonte: omer-metin/skills-for-antigravity.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/omer-metin/skills-for-antigravity --skill prompt-injection-defense
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-10

Browse more skills from omer-metin/skills-for-antigravity

Risposte rapide

Che cos'è prompt-injection-defense?

Tecniche di difesa contro attacchi di pronta iniezione tra cui iniezione diretta, iniezione indiretta e jailbreak: da utilizzare quando vengono menzionati "prompt injection, jailbreak Prevention, input sanitization, llm security, injection attack, security, prompt-injection, llm, owasp, jailbreak, ai-safety". Fonte: omer-metin/skills-for-antigravity.

Come installo prompt-injection-defense?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/omer-metin/skills-for-antigravity --skill prompt-injection-defense Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/omer-metin/skills-for-antigravity