·model-evaluation-benchmark
</>

model-evaluation-benchmark

إعادة إنتاج تلقائية لمعايير تقييم النماذج الشاملة باتباع Benchmark Suite V3. يتم التنشيط تلقائيًا لقياس النماذج أو تقييم المقارنة أو اختبار الأداء بين نماذج الذكاء الاصطناعي.

73التثبيتات·1الرائج·@rysweet

التثبيت

$npx skills add https://github.com/rysweet/amplihack --skill model-evaluation-benchmark

كيفية تثبيت model-evaluation-benchmark

ثبّت مهارة الذكاء الاصطناعي model-evaluation-benchmark بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/rysweet/amplihack --skill model-evaluation-benchmark
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: rysweet/amplihack.

Purpose: Automated reproduction of comprehensive model evaluation benchmarks following the Benchmark Suite V3 reference implementation.

Auto-activates when: User requests model benchmarking, comparison evaluation, or performance testing between AI models in agentic workflows.

This skill orchestrates end-to-end model evaluation benchmarks that measure:

إعادة إنتاج تلقائية لمعايير تقييم النماذج الشاملة باتباع Benchmark Suite V3. يتم التنشيط تلقائيًا لقياس النماذج أو تقييم المقارنة أو اختبار الأداء بين نماذج الذكاء الاصطناعي. المصدر: rysweet/amplihack.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/rysweet/amplihack --skill model-evaluation-benchmark
المصدر
rysweet/amplihack
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-01
آخر تحديث
2026-03-10

Browse more skills from rysweet/amplihack

إجابات سريعة

ما هي model-evaluation-benchmark؟

إعادة إنتاج تلقائية لمعايير تقييم النماذج الشاملة باتباع Benchmark Suite V3. يتم التنشيط تلقائيًا لقياس النماذج أو تقييم المقارنة أو اختبار الأداء بين نماذج الذكاء الاصطناعي. المصدر: rysweet/amplihack.

كيف أثبّت model-evaluation-benchmark؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/rysweet/amplihack --skill model-evaluation-benchmark بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/rysweet/amplihack