ما هي llm-evaluation؟
تنفيذ استراتيجيات تقييم شاملة لتطبيقات LLM باستخدام المقاييس الآلية، وردود الفعل البشرية، والمعايير. يُستخدم عند اختبار أداء LLM، أو قياس جودة تطبيقات الذكاء الاصطناعي، أو إنشاء أطر التقييم. المصدر: ovachiever/droid-tings.
تنفيذ استراتيجيات تقييم شاملة لتطبيقات LLM باستخدام المقاييس الآلية، وردود الفعل البشرية، والمعايير. يُستخدم عند اختبار أداء LLM، أو قياس جودة تطبيقات الذكاء الاصطناعي، أو إنشاء أطر التقييم.
ثبّت مهارة الذكاء الاصطناعي llm-evaluation بسرعة في بيئة التطوير لديك عبر سطر الأوامر
المصدر: ovachiever/droid-tings.
Master comprehensive evaluation strategies for LLM applications, from automated metrics to human evaluation and A/B testing.
Automated Metrics Fast, repeatable, scalable evaluation using computed scores.
Human Evaluation Manual assessment for quality aspects difficult to automate.
تنفيذ استراتيجيات تقييم شاملة لتطبيقات LLM باستخدام المقاييس الآلية، وردود الفعل البشرية، والمعايير. يُستخدم عند اختبار أداء LLM، أو قياس جودة تطبيقات الذكاء الاصطناعي، أو إنشاء أطر التقييم. المصدر: ovachiever/droid-tings.
حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.
npx skills add https://github.com/ovachiever/droid-tings --skill llm-evaluationتنفيذ استراتيجيات تقييم شاملة لتطبيقات LLM باستخدام المقاييس الآلية، وردود الفعل البشرية، والمعايير. يُستخدم عند اختبار أداء LLM، أو قياس جودة تطبيقات الذكاء الاصطناعي، أو إنشاء أطر التقييم. المصدر: ovachiever/droid-tings.
افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/ovachiever/droid-tings --skill llm-evaluation بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw
https://github.com/ovachiever/droid-tings