·red-teaming

منهجية الفريق الأحمر الشاملة لكل من أنظمة الأمن السيبراني وأنظمة الذكاء الاصطناعي/LLM. يُستخدم عند إجراء محاكاة الخصم، أو تقييم الثغرات الأمنية، أو محاكاة الهجوم، أو التحقق من الأمان. تفعيل طلبات اختبار الاختراق، أو نمذجة التهديدات، أو عمليات التدقيق الأمني، أو عمليات MITRE ATT&CK، أو اختبار سلامة LLM، أو هجمات الحقن الفوري، أو التحقق من الامتثال (OWASP، NIST، TIBER، DORA، EU AI Act). يتم التقديم عندما يطلب المستخدمون "الاختبار كمهاجم"، أو "الفريق الأحمر لنظامنا"، أو "التحقق من الوضع الأمني"، أو "تقييم نقاط الضعف في LLM"، أو "محاكاة الهجمات الإلكترونية". يتضمن أطر التخطيط، واستراتيجيات التنفيذ، ونماذج التقارير، والمراجع التقدمية لتقنيات وأدوات الهجوم المتخصصة.

8التثبيتات·2الرائج·@rfxlamia

التثبيت

$npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming

كيفية تثبيت red-teaming

ثبّت مهارة الذكاء الاصطناعي red-teaming بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: rfxlamia/claude-skillkit.

Red teaming is a structured adversarial approach to testing organizational security posture by simulating real-world attacks. This skill provides comprehensive methodology for both traditional cybersecurity red teaming (network, physical, social engineering) and AI/LLM red teaming (prompt injection, jailbreaking, safety testing).

Core Philosophy: Think like an attacker, operate covertly, test holistically, document thoroughly.

| Aspect | Red Teaming | Penetration Testing | Vulnerability Assessment |

منهجية الفريق الأحمر الشاملة لكل من أنظمة الأمن السيبراني وأنظمة الذكاء الاصطناعي/LLM. يُستخدم عند إجراء محاكاة الخصم، أو تقييم الثغرات الأمنية، أو محاكاة الهجوم، أو التحقق من الأمان. تفعيل طلبات اختبار الاختراق، أو نمذجة التهديدات، أو عمليات التدقيق الأمني، أو عمليات MITRE ATT&CK، أو اختبار سلامة LLM، أو هجمات الحقن الفوري، أو التحقق من الامتثال (OWASP، NIST، TIBER، DORA، EU AI Act). يتم التقديم عندما يطلب المستخدمون "الاختبار كمهاجم"، أو "الفريق الأحمر لنظامنا"، أو "التحقق من الوضع الأمني"، أو "تقييم نقاط الضعف في LLM"، أو "محاكاة الهجمات الإلكترونية". يتضمن أطر التخطيط، واستراتيجيات التنفيذ، ونماذج التقارير، والمراجع التقدمية لتقنيات وأدوات الهجوم المتخصصة. المصدر: rfxlamia/claude-skillkit.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming
الفئة
!الأمن
موثق
أول ظهور
2026-02-25
آخر تحديث
2026-03-11

Browse more skills from rfxlamia/claude-skillkit

إجابات سريعة

ما هي red-teaming؟

منهجية الفريق الأحمر الشاملة لكل من أنظمة الأمن السيبراني وأنظمة الذكاء الاصطناعي/LLM. يُستخدم عند إجراء محاكاة الخصم، أو تقييم الثغرات الأمنية، أو محاكاة الهجوم، أو التحقق من الأمان. تفعيل طلبات اختبار الاختراق، أو نمذجة التهديدات، أو عمليات التدقيق الأمني، أو عمليات MITRE ATT&CK، أو اختبار سلامة LLM، أو هجمات الحقن الفوري، أو التحقق من الامتثال (OWASP، NIST، TIBER، DORA، EU AI Act). يتم التقديم عندما يطلب المستخدمون "الاختبار كمهاجم"، أو "الفريق الأحمر لنظامنا"، أو "التحقق من الوضع الأمني"، أو "تقييم نقاط الضعف في LLM"، أو "محاكاة الهجمات الإلكترونية". يتضمن أطر التخطيط، واستراتيجيات التنفيذ، ونماذج التقارير، والمراجع التقدمية لتقنيات وأدوات الهجوم المتخصصة. المصدر: rfxlamia/claude-skillkit.

كيف أثبّت red-teaming؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/rfxlamia/claude-skillkit