·pentest-ai-llm-security
!

pentest-ai-llm-security

Тестирование безопасности приложений AI/LLM — быстрое внедрение, взлом джейлбрейка, утечка данных и небезопасная обработка выходных данных согласно рейтингу OWASP LLM Top 10.

22Установки·1Тренд·@jd-opensource

Установка

$npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security

Как установить pentest-ai-llm-security

Быстро установите AI-навык pentest-ai-llm-security в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: jd-opensource/joysafeter.

Purpose AI-integrated applications introduce entirely new attack surfaces. Prompt injection is the "SQLi of AI." Neither Shannon nor any existing skill addresses this domain. OWASP LLM Top 10 (2025) defines the methodology.

| LLM01 Prompt Injection | Direct and indirect injection | ✅ | | LLM02 Sensitive Information Disclosure | Data exfiltration, PII leakage | ✅ | | LLM03 Supply Chain | Model provenance, plugin trust | ✅ | | LLM04 Data and Model Poisoning | Training data integrity | ✅ | | LLM05 Improper Output Handling | XSS/SQLi via LLM output | ✅ |

| LLM06 Excessive Agency | Unauthorized tool use | ✅ | | LLM07 System Prompt Leakage | System prompt extraction | ✅ | | LLM08 Vector and Embedding Weaknesses | RAG poisoning | ✅ | | LLM09 Misinformation | Hallucination exploitation | ✅ | | LLM10 Unbounded Consumption | Resource exhaustion | ✅ |

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security
Источник
jd-opensource/joysafeter
Категория
!Безопасность
Проверено
Впервые замечено
2026-02-26
Обновлено
2026-03-10

Browse more skills from jd-opensource/joysafeter

Короткие ответы

Что такое pentest-ai-llm-security?

Тестирование безопасности приложений AI/LLM — быстрое внедрение, взлом джейлбрейка, утечка данных и небезопасная обработка выходных данных согласно рейтингу OWASP LLM Top 10. Источник: jd-opensource/joysafeter.

Как установить pentest-ai-llm-security?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/jd-opensource/joysafeter