·evaluating-code-models
</>

evaluating-code-models

يقوم بتقييم نماذج إنشاء التعليمات البرمجية عبر HumanEval وMBPP وMultiPL-E وأكثر من 15 معيارًا باستخدام مقاييس pass@k. يُستخدم عند قياس نماذج التعليمات البرمجية، أو مقارنة قدرات البرمجة، أو اختبار الدعم متعدد اللغات، أو قياس جودة إنشاء التعليمات البرمجية. معيار الصناعة من مشروع BigCode الذي تستخدمه لوحات المتصدرين HuggingFace.

37التثبيتات·1الرائج·@orchestra-research

التثبيت

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill evaluating-code-models

كيفية تثبيت evaluating-code-models

ثبّت مهارة الذكاء الاصطناعي evaluating-code-models بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/orchestra-research/ai-research-skills --skill evaluating-code-models
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: orchestra-research/ai-research-skills.

BigCode Evaluation Harness evaluates code generation models across 15+ benchmarks including HumanEval, MBPP, and MultiPL-E (18 languages).

Supported languages: Python, JavaScript, Java, C++, Go, Rust, TypeScript, C#, PHP, Ruby, Swift, Kotlin, Scala, Perl, Julia, Lua, R, Racket

| Benchmark | Problems | Languages | Metric | Use Case |

يقوم بتقييم نماذج إنشاء التعليمات البرمجية عبر HumanEval وMBPP وMultiPL-E وأكثر من 15 معيارًا باستخدام مقاييس pass@k. يُستخدم عند قياس نماذج التعليمات البرمجية، أو مقارنة قدرات البرمجة، أو اختبار الدعم متعدد اللغات، أو قياس جودة إنشاء التعليمات البرمجية. معيار الصناعة من مشروع BigCode الذي تستخدمه لوحات المتصدرين HuggingFace. المصدر: orchestra-research/ai-research-skills.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/orchestra-research/ai-research-skills --skill evaluating-code-models
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-11
آخر تحديث
2026-03-10

Browse more skills from orchestra-research/ai-research-skills

إجابات سريعة

ما هي evaluating-code-models؟

يقوم بتقييم نماذج إنشاء التعليمات البرمجية عبر HumanEval وMBPP وMultiPL-E وأكثر من 15 معيارًا باستخدام مقاييس pass@k. يُستخدم عند قياس نماذج التعليمات البرمجية، أو مقارنة قدرات البرمجة، أو اختبار الدعم متعدد اللغات، أو قياس جودة إنشاء التعليمات البرمجية. معيار الصناعة من مشروع BigCode الذي تستخدمه لوحات المتصدرين HuggingFace. المصدر: orchestra-research/ai-research-skills.

كيف أثبّت evaluating-code-models؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/orchestra-research/ai-research-skills --skill evaluating-code-models بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/orchestra-research/ai-research-skills

التفاصيل

الفئة
</>أدوات التطوير
المصدر
skills.sh
أول ظهور
2026-02-11