·llm-attacks-security
!

llm-attacks-security

Guida per attacchi alla sicurezza LLM: prompt injection, jailbreak, estrazione dei dati e dove posizionare le risorse in README.md.

14Installazioni·1Tendenza·@gmh5225

Installazione

$npx skills add https://github.com/gmh5225/awesome-ai-security --skill llm-attacks-security

Come installare llm-attacks-security

Installa rapidamente la skill AI llm-attacks-security nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/gmh5225/awesome-ai-security --skill llm-attacks-security
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: gmh5225/awesome-ai-security.

For detailed and up-to-date resources, fetch the complete list from:

Use this URL to get the latest curated links when you need specific tools, papers, or resources not covered in this skill.

Guida per attacchi alla sicurezza LLM: prompt injection, jailbreak, estrazione dei dati e dove posizionare le risorse in README.md. Fonte: gmh5225/awesome-ai-security.

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/gmh5225/awesome-ai-security --skill llm-attacks-security Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/gmh5225/awesome-ai-security --skill llm-attacks-security
Categoria
!Sicurezza
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-10

Browse more skills from gmh5225/awesome-ai-security

Risposte rapide

Che cos'è llm-attacks-security?

Guida per attacchi alla sicurezza LLM: prompt injection, jailbreak, estrazione dei dati e dove posizionare le risorse in README.md. Fonte: gmh5225/awesome-ai-security.

Come installo llm-attacks-security?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/gmh5225/awesome-ai-security --skill llm-attacks-security Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/gmh5225/awesome-ai-security