·pydantic-evals
</>

pydantic-evals

اختبار وتقييم وكلاء الذكاء الاصطناعي ومخرجات LLM باستخدام إطار تقييم الكود الأول مع الكتابة القوية. يُستخدم عندما يريد المستخدم: (1) إنشاء مجموعات بيانات تقييم مع حالات اختبار لوكلاء الذكاء الاصطناعي، (2) تحديد المقيمين (حتمي، أو LLM-as-Judge، أو مخصص، أو قائم على النطاق)، (3) تشغيل التقييمات وإنشاء التقارير، (4) مقارنة أداء النموذج عبر التجارب، (5) دمج التقييمات مع وكلاء Pydantic AI، (6) إعداد إمكانية المراقبة باستخدام Logfire، (7) إنشاء مجموعات بيانات اختبار باستخدام LLMs، (8) تنفيذ اختبار الانحدار لأنظمة الذكاء الاصطناعي.

4التثبيتات·0الرائج·@fuenfgeld

التثبيت

$npx skills add https://github.com/fuenfgeld/pydantic-ai-skills --skill pydantic-evals

كيفية تثبيت pydantic-evals

ثبّت مهارة الذكاء الاصطناعي pydantic-evals بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/fuenfgeld/pydantic-ai-skills --skill pydantic-evals
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: fuenfgeld/pydantic-ai-skills.

Pydantic Evals provides rigorous testing and evaluation for AI agents and LLM outputs using a code-first approach with Pydantic models. It enables "Evaluation-Driven Development" (EDD) where evaluation suites live alongside application code, subject to version control and CI/CD.

Case A single test scenario with inputs, optional expected output, and metadata.

Dataset Collection of Cases with default evaluators. Generic over input/output types.

اختبار وتقييم وكلاء الذكاء الاصطناعي ومخرجات LLM باستخدام إطار تقييم الكود الأول مع الكتابة القوية. يُستخدم عندما يريد المستخدم: (1) إنشاء مجموعات بيانات تقييم مع حالات اختبار لوكلاء الذكاء الاصطناعي، (2) تحديد المقيمين (حتمي، أو LLM-as-Judge، أو مخصص، أو قائم على النطاق)، (3) تشغيل التقييمات وإنشاء التقارير، (4) مقارنة أداء النموذج عبر التجارب، (5) دمج التقييمات مع وكلاء Pydantic AI، (6) إعداد إمكانية المراقبة باستخدام Logfire، (7) إنشاء مجموعات بيانات اختبار باستخدام LLMs، (8) تنفيذ اختبار الانحدار لأنظمة الذكاء الاصطناعي. المصدر: fuenfgeld/pydantic-ai-skills.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/fuenfgeld/pydantic-ai-skills --skill pydantic-evals
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-26
آخر تحديث
2026-03-11

Browse more skills from fuenfgeld/pydantic-ai-skills

إجابات سريعة

ما هي pydantic-evals؟

اختبار وتقييم وكلاء الذكاء الاصطناعي ومخرجات LLM باستخدام إطار تقييم الكود الأول مع الكتابة القوية. يُستخدم عندما يريد المستخدم: (1) إنشاء مجموعات بيانات تقييم مع حالات اختبار لوكلاء الذكاء الاصطناعي، (2) تحديد المقيمين (حتمي، أو LLM-as-Judge، أو مخصص، أو قائم على النطاق)، (3) تشغيل التقييمات وإنشاء التقارير، (4) مقارنة أداء النموذج عبر التجارب، (5) دمج التقييمات مع وكلاء Pydantic AI، (6) إعداد إمكانية المراقبة باستخدام Logfire، (7) إنشاء مجموعات بيانات اختبار باستخدام LLMs، (8) تنفيذ اختبار الانحدار لأنظمة الذكاء الاصطناعي. المصدر: fuenfgeld/pydantic-ai-skills.

كيف أثبّت pydantic-evals؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/fuenfgeld/pydantic-ai-skills --skill pydantic-evals بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/fuenfgeld/pydantic-ai-skills

التفاصيل

الفئة
</>أدوات التطوير
المصدر
skills.sh
أول ظهور
2026-02-26

مهارات ذات صلة