llm-attacks-security
Leitfaden für LLM-Sicherheitsangriffe: Prompt-Injection, Jailbreaking, Datenextraktion und wo Ressourcen in README.md platziert werden.
Installation
SKILL.md
For detailed and up-to-date resources, fetch the complete list from:
Use this URL to get the latest curated links when you need specific tools, papers, or resources not covered in this skill.
Leitfaden für LLM-Sicherheitsangriffe: Prompt-Injection, Jailbreaking, Datenextraktion und wo Ressourcen in README.md platziert werden. Quelle: gmh5225/awesome-ai-security.
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/gmh5225/awesome-ai-security --skill llm-attacks-security Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Fakten (zitierbereit)
Stabile Felder und Befehle für KI/Such-Zitate.
- Installationsbefehl
npx skills add https://github.com/gmh5225/awesome-ai-security --skill llm-attacks-security- Kategorie
- !Sicherheit
- Verifiziert
- —
- Erstes Auftreten
- 2026-02-01
- Aktualisiert
- 2026-02-18
Schnelle Antworten
Was ist llm-attacks-security?
Leitfaden für LLM-Sicherheitsangriffe: Prompt-Injection, Jailbreaking, Datenextraktion und wo Ressourcen in README.md platziert werden. Quelle: gmh5225/awesome-ai-security.
Wie installiere ich llm-attacks-security?
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/gmh5225/awesome-ai-security --skill llm-attacks-security Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Wo ist das Quell-Repository?
https://github.com/gmh5225/awesome-ai-security
Details
- Kategorie
- !Sicherheit
- Quelle
- user
- Erstes Auftreten
- 2026-02-01