·deliberation-debate-red-teaming
</>

deliberation-debate-red-teaming

يُستخدم عند اختبار الخطط أو القرارات المتعلقة بالنقاط العمياء، أو الحاجة إلى مراجعة تنافسية قبل الإطلاق، أو التحقق من صحة الإستراتيجية ضد أسوأ السيناريوهات، أو بناء توافق في الآراء من خلال نقاش منظم، أو تحديد ناقلات الهجوم أو نقاط الضعف، أو ذكر المستخدم "لعب دور محامي الشيطان"، أو "ما الخطأ الذي يمكن أن يحدث"، أو "تحدي افتراضاتنا"، أو "اختبار الضغط على هذا"، أو "الفريق الأحمر"، أو عندما يكون التفكير الجماعي أو التحيز التأكيدي يخفي المخاطر.

34التثبيتات·0الرائج·@lyndonkl

التثبيت

$npx skills add https://github.com/lyndonkl/claude --skill deliberation-debate-red-teaming

كيفية تثبيت deliberation-debate-red-teaming

ثبّت مهارة الذكاء الاصطناعي deliberation-debate-red-teaming بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/lyndonkl/claude --skill deliberation-debate-red-teaming
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: lyndonkl/claude.

Deliberation-debate-red-teaming is a structured adversarial process where you intentionally challenge plans, designs, or decisions from multiple critical perspectives to surface blind spots, hidden assumptions, and vulnerabilities before they cause real damage.

Result: Delay launch 2 weeks, address security/legal/ops gaps, add feature flag for gradual rollout

Ask user for the plan/decision to evaluate (specific proposal, not vague idea), stakes (what happens if this fails), current confidence level (how certain are they), and deadline (when must decision be made). Understanding stakes helps calibrate critique intensity. See Scoping Questions.

يُستخدم عند اختبار الخطط أو القرارات المتعلقة بالنقاط العمياء، أو الحاجة إلى مراجعة تنافسية قبل الإطلاق، أو التحقق من صحة الإستراتيجية ضد أسوأ السيناريوهات، أو بناء توافق في الآراء من خلال نقاش منظم، أو تحديد ناقلات الهجوم أو نقاط الضعف، أو ذكر المستخدم "لعب دور محامي الشيطان"، أو "ما الخطأ الذي يمكن أن يحدث"، أو "تحدي افتراضاتنا"، أو "اختبار الضغط على هذا"، أو "الفريق الأحمر"، أو عندما يكون التفكير الجماعي أو التحيز التأكيدي يخفي المخاطر. المصدر: lyndonkl/claude.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/lyndonkl/claude --skill deliberation-debate-red-teaming
المصدر
lyndonkl/claude
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-01
آخر تحديث
2026-03-10

Browse more skills from lyndonkl/claude

إجابات سريعة

ما هي deliberation-debate-red-teaming؟

يُستخدم عند اختبار الخطط أو القرارات المتعلقة بالنقاط العمياء، أو الحاجة إلى مراجعة تنافسية قبل الإطلاق، أو التحقق من صحة الإستراتيجية ضد أسوأ السيناريوهات، أو بناء توافق في الآراء من خلال نقاش منظم، أو تحديد ناقلات الهجوم أو نقاط الضعف، أو ذكر المستخدم "لعب دور محامي الشيطان"، أو "ما الخطأ الذي يمكن أن يحدث"، أو "تحدي افتراضاتنا"، أو "اختبار الضغط على هذا"، أو "الفريق الأحمر"، أو عندما يكون التفكير الجماعي أو التحيز التأكيدي يخفي المخاطر. المصدر: lyndonkl/claude.

كيف أثبّت deliberation-debate-red-teaming؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/lyndonkl/claude --skill deliberation-debate-red-teaming بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/lyndonkl/claude