·evaluation

يجب استخدام هذه المهارة عندما يطلب المستخدم "تقييم أداء الوكيل"، أو "إنشاء إطار عمل للاختبار"، أو "قياس جودة الوكيل"، أو "إنشاء معايير تقييم"، أو يذكر LLM كقاضي، أو تقييم متعدد الأبعاد، أو اختبار الوكيل، أو بوابات الجودة لخطوط أنابيب الوكيل.

4التثبيتات·0الرائج·@muratcankoylan

التثبيت

$npx skills add https://github.com/muratcankoylan/agent-skills-for-context-engineering --skill evaluation

كيفية تثبيت evaluation

ثبّت مهارة الذكاء الاصطناعي evaluation بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/muratcankoylan/agent-skills-for-context-engineering --skill evaluation
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: muratcankoylan/agent-skills-for-context-engineering.

Evaluation of agent systems requires different approaches than traditional software or even standard language model applications. Agents make dynamic decisions, are non-deterministic between runs, and often lack single correct answers. Effective evaluation must account for these characteristics while providing actionable feedback. A robust evaluation framework enables continuous improvement, catches regressions, a...

Agent evaluation requires outcome-focused approaches that account for non-determinism and multiple valid paths. Multi-dimensional rubrics capture various quality aspects: factual accuracy, completeness, citation accuracy, source quality, and tool efficiency. LLM-as-judge provides scalable evaluation while human evaluation catches edge cases.

The key insight is that agents may find alternative paths to goals—the evaluation should judge whether they achieve right outcomes while following reasonable processes.

يجب استخدام هذه المهارة عندما يطلب المستخدم "تقييم أداء الوكيل"، أو "إنشاء إطار عمل للاختبار"، أو "قياس جودة الوكيل"، أو "إنشاء معايير تقييم"، أو يذكر LLM كقاضي، أو تقييم متعدد الأبعاد، أو اختبار الوكيل، أو بوابات الجودة لخطوط أنابيب الوكيل. المصدر: muratcankoylan/agent-skills-for-context-engineering.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/muratcankoylan/agent-skills-for-context-engineering --skill evaluation
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-01
آخر تحديث
2026-03-11

Browse more skills from muratcankoylan/agent-skills-for-context-engineering

إجابات سريعة

ما هي evaluation؟

يجب استخدام هذه المهارة عندما يطلب المستخدم "تقييم أداء الوكيل"، أو "إنشاء إطار عمل للاختبار"، أو "قياس جودة الوكيل"، أو "إنشاء معايير تقييم"، أو يذكر LLM كقاضي، أو تقييم متعدد الأبعاد، أو اختبار الوكيل، أو بوابات الجودة لخطوط أنابيب الوكيل. المصدر: muratcankoylan/agent-skills-for-context-engineering.

كيف أثبّت evaluation؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/muratcankoylan/agent-skills-for-context-engineering --skill evaluation بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/muratcankoylan/agent-skills-for-context-engineering