·pentest-ai-llm-security
!

pentest-ai-llm-security

Pruebas de seguridad de aplicaciones AI/LLM: inyección rápida, jailbreak, filtración de datos y manejo de resultados inseguros según OWASP LLM Top 10.

22Instalaciones·1Tendencia·@jd-opensource

Instalación

$npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security

Cómo instalar pentest-ai-llm-security

Instala rápidamente el skill de IA pentest-ai-llm-security en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: jd-opensource/joysafeter.

SKILL.md

Ver original

Purpose AI-integrated applications introduce entirely new attack surfaces. Prompt injection is the "SQLi of AI." Neither Shannon nor any existing skill addresses this domain. OWASP LLM Top 10 (2025) defines the methodology.

| LLM01 Prompt Injection | Direct and indirect injection | ✅ | | LLM02 Sensitive Information Disclosure | Data exfiltration, PII leakage | ✅ | | LLM03 Supply Chain | Model provenance, plugin trust | ✅ | | LLM04 Data and Model Poisoning | Training data integrity | ✅ | | LLM05 Improper Output Handling | XSS/SQLi via LLM output | ✅ |

| LLM06 Excessive Agency | Unauthorized tool use | ✅ | | LLM07 System Prompt Leakage | System prompt extraction | ✅ | | LLM08 Vector and Embedding Weaknesses | RAG poisoning | ✅ | | LLM09 Misinformation | Hallucination exploitation | ✅ | | LLM10 Unbounded Consumption | Resource exhaustion | ✅ |

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security
Categoría
!Seguridad
Verificado
Primera vez visto
2026-02-26
Actualizado
2026-03-10

Browse more skills from jd-opensource/joysafeter

Respuestas rápidas

¿Qué es pentest-ai-llm-security?

Pruebas de seguridad de aplicaciones AI/LLM: inyección rápida, jailbreak, filtración de datos y manejo de resultados inseguros según OWASP LLM Top 10. Fuente: jd-opensource/joysafeter.

¿Cómo instalo pentest-ai-llm-security?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/jd-opensource/joysafeter