·ai-threat-testing
!

ai-threat-testing

transilienceai/communitytools

Marco ofensivo de prueba y explotación de seguridad de IA. Prueba sistemáticamente las aplicaciones LLM para detectar las 10 vulnerabilidades principales de OWASP, incluidas la inyección rápida, la extracción de modelos, el envenenamiento de datos y los ataques a la cadena de suministro. Se integra con flujos de trabajo pentest para descubrir y explotar amenazas específicas de IA.

2Instalaciones·0Tendencia·@transilienceai

Instalación

$npx skills add https://github.com/transilienceai/communitytools --skill ai-threat-testing

SKILL.md

This skill orchestrates comprehensive AI threat testing across LLM applications and systems. Use this to perform authorized penetration testing of AI systems, discover vulnerabilities, and document findings with proof-of-concept exploits.

Agent 1: Prompt Injection Testing Tests: LLM01 - Direct and indirect prompt injection

Agent 2: Output Handling Exploitation Tests: LLM02 - Insecure output handling

Marco ofensivo de prueba y explotación de seguridad de IA. Prueba sistemáticamente las aplicaciones LLM para detectar las 10 vulnerabilidades principales de OWASP, incluidas la inyección rápida, la extracción de modelos, el envenenamiento de datos y los ataques a la cadena de suministro. Se integra con flujos de trabajo pentest para descubrir y explotar amenazas específicas de IA. Fuente: transilienceai/communitytools.

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/transilienceai/communitytools --skill ai-threat-testing
Categoría
!Seguridad
Verificado
Primera vez visto
2026-02-05
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es ai-threat-testing?

Marco ofensivo de prueba y explotación de seguridad de IA. Prueba sistemáticamente las aplicaciones LLM para detectar las 10 vulnerabilidades principales de OWASP, incluidas la inyección rápida, la extracción de modelos, el envenenamiento de datos y los ataques a la cadena de suministro. Se integra con flujos de trabajo pentest para descubrir y explotar amenazas específicas de IA. Fuente: transilienceai/communitytools.

¿Cómo instalo ai-threat-testing?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/transilienceai/communitytools --skill ai-threat-testing Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/transilienceai/communitytools

Detalles

Categoría
!Seguridad
Fuente
skills.sh
Primera vez visto
2026-02-05