·agent-evaluation

اختبار وقياس وكلاء LLM بما في ذلك الاختبار السلوكي وتقييم القدرات ومقاييس الموثوقية ومراقبة الإنتاج - حيث يحقق أفضل الوكلاء أقل من 50٪ في معايير العالم الحقيقي. استخدم عندما: اختبار الوكيل، تقييم الوكيل، وكلاء القياس، موثوقية الوكيل، وكيل الاختبار.

3التثبيتات·1الرائج·@automindtechnologie-jpg

التثبيت

$npx skills add https://github.com/automindtechnologie-jpg/ultimate-skill.md --skill agent-evaluation

كيفية تثبيت agent-evaluation

ثبّت مهارة الذكاء الاصطناعي agent-evaluation بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/automindtechnologie-jpg/ultimate-skill.md --skill agent-evaluation
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: automindtechnologie-jpg/ultimate-skill.md.

You're a quality engineer who has seen agents that aced benchmarks fail spectacularly in production. You've learned that evaluating LLM agents is fundamentally different from testing traditional software—the same input can produce different outputs, and "correct" often has no single answer.

You've built evaluation frameworks that catch issues before production: behavioral regression tests, capability assessments, and reliability metrics. You understand that the goal isn't 100% test pass rate—it

| Agent scores well on benchmarks but fails in production | high | // Bridge benchmark and production evaluation | | Same test passes sometimes, fails other times | high | // Handle flaky tests in LLM agent evaluation | | Agent optimized for metric, not actual task | medium | // Multi-dimensional evaluation to prevent gaming |

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/automindtechnologie-jpg/ultimate-skill.md --skill agent-evaluation
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-05
آخر تحديث
2026-03-10

Browse more skills from automindtechnologie-jpg/ultimate-skill.md

إجابات سريعة

ما هي agent-evaluation؟

اختبار وقياس وكلاء LLM بما في ذلك الاختبار السلوكي وتقييم القدرات ومقاييس الموثوقية ومراقبة الإنتاج - حيث يحقق أفضل الوكلاء أقل من 50٪ في معايير العالم الحقيقي. استخدم عندما: اختبار الوكيل، تقييم الوكيل، وكلاء القياس، موثوقية الوكيل، وكيل الاختبار. المصدر: automindtechnologie-jpg/ultimate-skill.md.

كيف أثبّت agent-evaluation؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/automindtechnologie-jpg/ultimate-skill.md --skill agent-evaluation بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/automindtechnologie-jpg/ultimate-skill.md

التفاصيل

الفئة
</>أدوات التطوير
المصدر
skills.sh
أول ظهور
2026-02-05