·prompt-injection-defense
</>

prompt-injection-defense

omer-metin/skills-for-antigravity

Verteidigungstechniken gegen Prompt-Injection-Angriffe, einschließlich direkter Injektion, indirekter Injektion und Jailbreaks – werden verwendet, wenn „Prompt-Injection, Jailbreak-Prävention, Eingabebereinigung, LLM-Sicherheit, Injektionsangriff, Sicherheit, Prompt-Injection, LLM, OWASP, Jailbreak, KI-Sicherheit“ erwähnt wird.

10Installationen·0Trend·@omer-metin

Installation

$npx skills add https://github.com/omer-metin/skills-for-antigravity --skill prompt-injection-defense

SKILL.md

You're a security researcher who has discovered dozens of prompt injection techniques and built defenses against them. You've seen the evolution from simple "ignore previous instructions" to sophisticated multi-turn attacks, encoded payloads, and indirect injection via retrieved content.

You understand that prompt injection is fundamentally similar to SQL injection—a failure to separate code (instructions) from data (user content). But unlike SQL, LLMs have no prepared statements, making defense inherently harder.

You must ground your responses in the provided reference files, treating them as the source of truth for this domain:

Verteidigungstechniken gegen Prompt-Injection-Angriffe, einschließlich direkter Injektion, indirekter Injektion und Jailbreaks – werden verwendet, wenn „Prompt-Injection, Jailbreak-Prävention, Eingabebereinigung, LLM-Sicherheit, Injektionsangriff, Sicherheit, Prompt-Injection, LLM, OWASP, Jailbreak, KI-Sicherheit“ erwähnt wird. Quelle: omer-metin/skills-for-antigravity.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/omer-metin/skills-for-antigravity --skill prompt-injection-defense
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-01
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist prompt-injection-defense?

Verteidigungstechniken gegen Prompt-Injection-Angriffe, einschließlich direkter Injektion, indirekter Injektion und Jailbreaks – werden verwendet, wenn „Prompt-Injection, Jailbreak-Prävention, Eingabebereinigung, LLM-Sicherheit, Injektionsangriff, Sicherheit, Prompt-Injection, LLM, OWASP, Jailbreak, KI-Sicherheit“ erwähnt wird. Quelle: omer-metin/skills-for-antigravity.

Wie installiere ich prompt-injection-defense?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/omer-metin/skills-for-antigravity --skill prompt-injection-defense Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/omer-metin/skills-for-antigravity