·llm-evaluation
</>

llm-evaluation

تنفيذ استراتيجيات تقييم شاملة لتطبيقات LLM باستخدام المقاييس الآلية، وردود الفعل البشرية، والمعايير. يُستخدم عند اختبار أداء LLM، أو قياس جودة تطبيقات الذكاء الاصطناعي، أو إنشاء أطر التقييم.

3.0Kالتثبيتات·36الرائج·@wshobson

التثبيت

$npx skills add https://github.com/wshobson/agents --skill llm-evaluation

كيفية تثبيت llm-evaluation

ثبّت مهارة الذكاء الاصطناعي llm-evaluation بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/wshobson/agents --skill llm-evaluation
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: wshobson/agents.

Master comprehensive evaluation strategies for LLM applications, from automated metrics to human evaluation and A/B testing.

تنفيذ استراتيجيات تقييم شاملة لتطبيقات LLM باستخدام المقاييس الآلية، وردود الفعل البشرية، والمعايير. يُستخدم عند اختبار أداء LLM، أو قياس جودة تطبيقات الذكاء الاصطناعي، أو إنشاء أطر التقييم. المصدر: wshobson/agents.

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/wshobson/agents --skill llm-evaluation بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

معتمدة أمنيا لكود موثوق وآمن تثبيت بنقرة واحدة مع إعداد مبسّط متوافقة مع Claude Code وCursor وOpenClaw والمزيد

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/wshobson/agents --skill llm-evaluation
المصدر
wshobson/agents
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-01
آخر تحديث
2026-03-10

Browse more skills from wshobson/agents

إجابات سريعة

ما هي llm-evaluation؟

تنفيذ استراتيجيات تقييم شاملة لتطبيقات LLM باستخدام المقاييس الآلية، وردود الفعل البشرية، والمعايير. يُستخدم عند اختبار أداء LLM، أو قياس جودة تطبيقات الذكاء الاصطناعي، أو إنشاء أطر التقييم. المصدر: wshobson/agents.

كيف أثبّت llm-evaluation؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/wshobson/agents --skill llm-evaluation بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/wshobson/agents