ما هي llm-evaluation؟
تنفيذ استراتيجيات تقييم شاملة لتطبيقات LLM باستخدام المقاييس الآلية، وردود الفعل البشرية، والمعايير. يُستخدم عند اختبار أداء LLM، أو قياس جودة تطبيقات الذكاء الاصطناعي، أو إنشاء أطر التقييم. المصدر: wshobson/agents.
تنفيذ استراتيجيات تقييم شاملة لتطبيقات LLM باستخدام المقاييس الآلية، وردود الفعل البشرية، والمعايير. يُستخدم عند اختبار أداء LLM، أو قياس جودة تطبيقات الذكاء الاصطناعي، أو إنشاء أطر التقييم.
ثبّت مهارة الذكاء الاصطناعي llm-evaluation بسرعة في بيئة التطوير لديك عبر سطر الأوامر
المصدر: wshobson/agents.
Master comprehensive evaluation strategies for LLM applications, from automated metrics to human evaluation and A/B testing.
تنفيذ استراتيجيات تقييم شاملة لتطبيقات LLM باستخدام المقاييس الآلية، وردود الفعل البشرية، والمعايير. يُستخدم عند اختبار أداء LLM، أو قياس جودة تطبيقات الذكاء الاصطناعي، أو إنشاء أطر التقييم. المصدر: wshobson/agents.
افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/wshobson/agents --skill llm-evaluation بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw
معتمدة أمنيا لكود موثوق وآمن تثبيت بنقرة واحدة مع إعداد مبسّط متوافقة مع Claude Code وCursor وOpenClaw والمزيد
حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.
npx skills add https://github.com/wshobson/agents --skill llm-evaluationتنفيذ استراتيجيات تقييم شاملة لتطبيقات LLM باستخدام المقاييس الآلية، وردود الفعل البشرية، والمعايير. يُستخدم عند اختبار أداء LLM، أو قياس جودة تطبيقات الذكاء الاصطناعي، أو إنشاء أطر التقييم. المصدر: wshobson/agents.
افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/wshobson/agents --skill llm-evaluation بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw
https://github.com/wshobson/agents