·pentest-ai-llm-security
!

pentest-ai-llm-security

اختبار أمان تطبيقات الذكاء الاصطناعي/LLM - الحقن السريع، وكسر الحماية، واستخلاص البيانات، والتعامل غير الآمن مع المخرجات وفقًا لأفضل 10 OWASP LLM.

22التثبيتات·1الرائج·@jd-opensource

التثبيت

$npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security

كيفية تثبيت pentest-ai-llm-security

ثبّت مهارة الذكاء الاصطناعي pentest-ai-llm-security بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: jd-opensource/joysafeter.

Purpose AI-integrated applications introduce entirely new attack surfaces. Prompt injection is the "SQLi of AI." Neither Shannon nor any existing skill addresses this domain. OWASP LLM Top 10 (2025) defines the methodology.

| LLM01 Prompt Injection | Direct and indirect injection | ✅ | | LLM02 Sensitive Information Disclosure | Data exfiltration, PII leakage | ✅ | | LLM03 Supply Chain | Model provenance, plugin trust | ✅ | | LLM04 Data and Model Poisoning | Training data integrity | ✅ | | LLM05 Improper Output Handling | XSS/SQLi via LLM output | ✅ |

| LLM06 Excessive Agency | Unauthorized tool use | ✅ | | LLM07 System Prompt Leakage | System prompt extraction | ✅ | | LLM08 Vector and Embedding Weaknesses | RAG poisoning | ✅ | | LLM09 Misinformation | Hallucination exploitation | ✅ | | LLM10 Unbounded Consumption | Resource exhaustion | ✅ |

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security
الفئة
!الأمن
موثق
أول ظهور
2026-02-26
آخر تحديث
2026-03-10

Browse more skills from jd-opensource/joysafeter

إجابات سريعة

ما هي pentest-ai-llm-security؟

اختبار أمان تطبيقات الذكاء الاصطناعي/LLM - الحقن السريع، وكسر الحماية، واستخلاص البيانات، والتعامل غير الآمن مع المخرجات وفقًا لأفضل 10 OWASP LLM. المصدر: jd-opensource/joysafeter.

كيف أثبّت pentest-ai-llm-security؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/jd-opensource/joysafeter --skill pentest-ai-llm-security بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/jd-opensource/joysafeter