·promptfoo-evaluation
</>

promptfoo-evaluation

تكوين وتشغيل تقييم LLM باستخدام إطار عمل Promptfoo. يُستخدم عند إعداد الاختبار السريع، أو إنشاء تكوينات التقييم (promptfooconfig.yaml)، أو كتابة تأكيدات Python المخصصة، أو تنفيذ قواعد LLM لـ LLM-as-dudge، أو إدارة أمثلة قليلة في المطالبات. تشغيل الكلمات الرئيسية مثل "promptfoo" أو "eval" أو "تقييم LLM" أو "الاختبار الفوري" أو "مقارنة النماذج".

101التثبيتات·0الرائج·@daymade

التثبيت

$npx skills add https://github.com/daymade/claude-code-skills --skill promptfoo-evaluation

كيفية تثبيت promptfoo-evaluation

ثبّت مهارة الذكاء الاصطناعي promptfoo-evaluation بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/daymade/claude-code-skills --skill promptfoo-evaluation
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: daymade/claude-code-skills.

This skill provides guidance for configuring and running LLM evaluations using Promptfoo, an open-source CLI tool for testing and comparing LLM outputs.

Embed examples directly in prompt or use chat format with assistant messages:

Create a Python file for custom assertions (e.g., scripts/metrics.py):

تكوين وتشغيل تقييم LLM باستخدام إطار عمل Promptfoo. يُستخدم عند إعداد الاختبار السريع، أو إنشاء تكوينات التقييم (promptfooconfig.yaml)، أو كتابة تأكيدات Python المخصصة، أو تنفيذ قواعد LLM لـ LLM-as-dudge، أو إدارة أمثلة قليلة في المطالبات. تشغيل الكلمات الرئيسية مثل "promptfoo" أو "eval" أو "تقييم LLM" أو "الاختبار الفوري" أو "مقارنة النماذج". المصدر: daymade/claude-code-skills.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/daymade/claude-code-skills --skill promptfoo-evaluation
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-01
آخر تحديث
2026-03-10

Browse more skills from daymade/claude-code-skills

إجابات سريعة

ما هي promptfoo-evaluation؟

تكوين وتشغيل تقييم LLM باستخدام إطار عمل Promptfoo. يُستخدم عند إعداد الاختبار السريع، أو إنشاء تكوينات التقييم (promptfooconfig.yaml)، أو كتابة تأكيدات Python المخصصة، أو تنفيذ قواعد LLM لـ LLM-as-dudge، أو إدارة أمثلة قليلة في المطالبات. تشغيل الكلمات الرئيسية مثل "promptfoo" أو "eval" أو "تقييم LLM" أو "الاختبار الفوري" أو "مقارنة النماذج". المصدر: daymade/claude-code-skills.

كيف أثبّت promptfoo-evaluation؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/daymade/claude-code-skills --skill promptfoo-evaluation بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/daymade/claude-code-skills

التفاصيل

الفئة
</>أدوات التطوير
المصدر
skills.sh
أول ظهور
2026-02-01