·llm-evaluation
</>

llm-evaluation

LLM الاختبار الفوري والتقييم وبوابات جودة CI/CD باستخدام Promptfoo. الاستدعاء عندما: - إعداد التقييم الفوري أو اختبار الانحدار - دمج اختبار LLM في خطوط أنابيب CI/CD - تكوين اختبار الأمان (الفريق الأحمر، الهروب من السجن) - مقارنة الأداء الفوري أو النموذجي - بناء مجموعات تقييم لـ RAG أو الواقعية أو السلامة الكلمات المفتاحية: موجه، تقييم ماجستير، اختبار سريع، الفريق الأحمر، CI/CD، اختبار الانحدار

23التثبيتات·0الرائج·@phrazzld

التثبيت

$npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation

كيفية تثبيت llm-evaluation

ثبّت مهارة الذكاء الاصطناعي llm-evaluation بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: phrazzld/claude-config.

Test prompts, models, and RAG systems with automated evaluation and CI/CD integration.

LLM outputs are non-deterministic. "It looks good" isn't testing. You need:

| Functional | Does it work? | contains, equals, is-json | | Semantic | Is it correct? | similar, llm-rubric, factuality | | Performance | Is it fast/cheap? | cost, latency | | Security | Is it safe? | redteam, moderation, pii-detection |

LLM الاختبار الفوري والتقييم وبوابات جودة CI/CD باستخدام Promptfoo. الاستدعاء عندما: - إعداد التقييم الفوري أو اختبار الانحدار - دمج اختبار LLM في خطوط أنابيب CI/CD - تكوين اختبار الأمان (الفريق الأحمر، الهروب من السجن) - مقارنة الأداء الفوري أو النموذجي - بناء مجموعات تقييم لـ RAG أو الواقعية أو السلامة الكلمات المفتاحية: موجه، تقييم ماجستير، اختبار سريع، الفريق الأحمر، CI/CD، اختبار الانحدار المصدر: phrazzld/claude-config.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-01
آخر تحديث
2026-03-11

Browse more skills from phrazzld/claude-config

إجابات سريعة

ما هي llm-evaluation؟

LLM الاختبار الفوري والتقييم وبوابات جودة CI/CD باستخدام Promptfoo. الاستدعاء عندما: - إعداد التقييم الفوري أو اختبار الانحدار - دمج اختبار LLM في خطوط أنابيب CI/CD - تكوين اختبار الأمان (الفريق الأحمر، الهروب من السجن) - مقارنة الأداء الفوري أو النموذجي - بناء مجموعات تقييم لـ RAG أو الواقعية أو السلامة الكلمات المفتاحية: موجه، تقييم ماجستير، اختبار سريع، الفريق الأحمر، CI/CD، اختبار الانحدار المصدر: phrazzld/claude-config.

كيف أثبّت llm-evaluation؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/phrazzld/claude-config