·pentest-ai-llm-security
!

pentest-ai-llm-security

Test di sicurezza delle applicazioni AI/LLM: inserimento rapido, jailbreak, esfiltrazione di dati e gestione non sicura degli output secondo OWASP LLM Top 10.

22Installazioni·1Tendenza·@jd-opensource

Installazione

$npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security

Come installare pentest-ai-llm-security

Installa rapidamente la skill AI pentest-ai-llm-security nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: jd-opensource/joysafeter.

Purpose AI-integrated applications introduce entirely new attack surfaces. Prompt injection is the "SQLi of AI." Neither Shannon nor any existing skill addresses this domain. OWASP LLM Top 10 (2025) defines the methodology.

| LLM01 Prompt Injection | Direct and indirect injection | ✅ | | LLM02 Sensitive Information Disclosure | Data exfiltration, PII leakage | ✅ | | LLM03 Supply Chain | Model provenance, plugin trust | ✅ | | LLM04 Data and Model Poisoning | Training data integrity | ✅ | | LLM05 Improper Output Handling | XSS/SQLi via LLM output | ✅ |

| LLM06 Excessive Agency | Unauthorized tool use | ✅ | | LLM07 System Prompt Leakage | System prompt extraction | ✅ | | LLM08 Vector and Embedding Weaknesses | RAG poisoning | ✅ | | LLM09 Misinformation | Hallucination exploitation | ✅ | | LLM10 Unbounded Consumption | Resource exhaustion | ✅ |

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security
Categoria
!Sicurezza
Verificato
Prima apparizione
2026-02-26
Aggiornato
2026-03-10

Browse more skills from jd-opensource/joysafeter

Risposte rapide

Che cos'è pentest-ai-llm-security?

Test di sicurezza delle applicazioni AI/LLM: inserimento rapido, jailbreak, esfiltrazione di dati e gestione non sicura degli output secondo OWASP LLM Top 10. Fonte: jd-opensource/joysafeter.

Come installo pentest-ai-llm-security?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/jd-opensource/joysafeter