·pentest-ai-llm-security
!

pentest-ai-llm-security

KI/LLM-Anwendungssicherheitstests – sofortige Injektion, Jailbreaking, Datenexfiltration und unsichere Ausgabeverarbeitung gemäß OWASP LLM Top 10.

22Installationen·1Trend·@jd-opensource

Installation

$npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security

So installieren Sie pentest-ai-llm-security

Installieren Sie den KI-Skill pentest-ai-llm-security schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: jd-opensource/joysafeter.

Purpose AI-integrated applications introduce entirely new attack surfaces. Prompt injection is the "SQLi of AI." Neither Shannon nor any existing skill addresses this domain. OWASP LLM Top 10 (2025) defines the methodology.

| LLM01 Prompt Injection | Direct and indirect injection | ✅ | | LLM02 Sensitive Information Disclosure | Data exfiltration, PII leakage | ✅ | | LLM03 Supply Chain | Model provenance, plugin trust | ✅ | | LLM04 Data and Model Poisoning | Training data integrity | ✅ | | LLM05 Improper Output Handling | XSS/SQLi via LLM output | ✅ |

| LLM06 Excessive Agency | Unauthorized tool use | ✅ | | LLM07 System Prompt Leakage | System prompt extraction | ✅ | | LLM08 Vector and Embedding Weaknesses | RAG poisoning | ✅ | | LLM09 Misinformation | Hallucination exploitation | ✅ | | LLM10 Unbounded Consumption | Resource exhaustion | ✅ |

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security
Kategorie
!Sicherheit
Verifiziert
Erstes Auftreten
2026-02-26
Aktualisiert
2026-03-10

Browse more skills from jd-opensource/joysafeter

Schnelle Antworten

Was ist pentest-ai-llm-security?

KI/LLM-Anwendungssicherheitstests – sofortige Injektion, Jailbreaking, Datenexfiltration und unsichere Ausgabeverarbeitung gemäß OWASP LLM Top 10. Quelle: jd-opensource/joysafeter.

Wie installiere ich pentest-ai-llm-security?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/jd-opensource/joysafeter