·ai-threat-testing
!

ai-threat-testing

Framework offensivo per test e sfruttamento della sicurezza dell'IA. Testa sistematicamente le applicazioni LLM per le 10 principali vulnerabilità OWASP, tra cui tempestività di inserimento, estrazione di modelli, avvelenamento dei dati e attacchi alla catena di fornitura. Si integra con flussi di lavoro pentest per scoprire e sfruttare le minacce specifiche dell'intelligenza artificiale.

4Installazioni·2Tendenza·@transilienceai

Installazione

$npx skills add https://github.com/transilienceai/communitytools --skill ai-threat-testing

Come installare ai-threat-testing

Installa rapidamente la skill AI ai-threat-testing nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/transilienceai/communitytools --skill ai-threat-testing
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: transilienceai/communitytools.

This skill orchestrates comprehensive AI threat testing across LLM applications and systems. Use this to perform authorized penetration testing of AI systems, discover vulnerabilities, and document findings with proof-of-concept exploits.

Agent 1: Prompt Injection Testing Tests: LLM01 - Direct and indirect prompt injection

Agent 2: Output Handling Exploitation Tests: LLM02 - Insecure output handling

Framework offensivo per test e sfruttamento della sicurezza dell'IA. Testa sistematicamente le applicazioni LLM per le 10 principali vulnerabilità OWASP, tra cui tempestività di inserimento, estrazione di modelli, avvelenamento dei dati e attacchi alla catena di fornitura. Si integra con flussi di lavoro pentest per scoprire e sfruttare le minacce specifiche dell'intelligenza artificiale. Fonte: transilienceai/communitytools.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/transilienceai/communitytools --skill ai-threat-testing
Categoria
!Sicurezza
Verificato
Prima apparizione
2026-02-05
Aggiornato
2026-03-10

Browse more skills from transilienceai/communitytools

Risposte rapide

Che cos'è ai-threat-testing?

Framework offensivo per test e sfruttamento della sicurezza dell'IA. Testa sistematicamente le applicazioni LLM per le 10 principali vulnerabilità OWASP, tra cui tempestività di inserimento, estrazione di modelli, avvelenamento dei dati e attacchi alla catena di fornitura. Si integra con flussi di lavoro pentest per scoprire e sfruttare le minacce specifiche dell'intelligenza artificiale. Fonte: transilienceai/communitytools.

Come installo ai-threat-testing?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/transilienceai/communitytools --skill ai-threat-testing Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/transilienceai/communitytools

Dettagli

Categoria
!Sicurezza
Fonte
skills.sh
Prima apparizione
2026-02-05