·agent-evaluation
</>

agent-evaluation

تقييم وتحسين أوامر ومهارات ووكلاء Claude Code. يُستخدم عند اختبار الفعالية السريعة، أو التحقق من صحة اختيارات هندسة السياق، أو قياس جودة التحسين.

7التثبيتات·0الرائج·@zpankz

التثبيت

$npx skills add https://github.com/zpankz/mcp-skillset --skill agent-evaluation

كيفية تثبيت agent-evaluation

ثبّت مهارة الذكاء الاصطناعي agent-evaluation بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/zpankz/mcp-skillset --skill agent-evaluation
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: zpankz/mcp-skillset.

Evaluation of agent systems requires different approaches than traditional software or even standard language model applications. Agents make dynamic decisions, are non-deterministic between runs, and often lack single correct answers. Effective evaluation must account for these characteristics while providing actionable feedback. A robust evaluation framework enables continuous improvement, catches regressions, a...

Agent evaluation requires outcome-focused approaches that account for non-determinism and multiple valid paths. Multi-dimensional rubrics capture various quality aspects: factual accuracy, completeness, citation accuracy, source quality, and tool efficiency. LLM-as-judge provides scalable evaluation while human evaluation catches edge cases.

The key insight is that agents may find alternative paths to goals—the evaluation should judge whether they achieve right outcomes while following reasonable processes.

تقييم وتحسين أوامر ومهارات ووكلاء Claude Code. يُستخدم عند اختبار الفعالية السريعة، أو التحقق من صحة اختيارات هندسة السياق، أو قياس جودة التحسين. المصدر: zpankz/mcp-skillset.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/zpankz/mcp-skillset --skill agent-evaluation
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-01
آخر تحديث
2026-03-10

Browse more skills from zpankz/mcp-skillset

إجابات سريعة

ما هي agent-evaluation؟

تقييم وتحسين أوامر ومهارات ووكلاء Claude Code. يُستخدم عند اختبار الفعالية السريعة، أو التحقق من صحة اختيارات هندسة السياق، أو قياس جودة التحسين. المصدر: zpankz/mcp-skillset.

كيف أثبّت agent-evaluation؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/zpankz/mcp-skillset --skill agent-evaluation بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/zpankz/mcp-skillset