ما هي model-evaluation-benchmark؟
إعادة إنتاج تلقائية لمعايير تقييم النماذج الشاملة باتباع Benchmark Suite V3. يتم التنشيط تلقائيًا لقياس النماذج أو تقييم المقارنة أو اختبار الأداء بين نماذج الذكاء الاصطناعي. المصدر: rysweet/amplihack.
إعادة إنتاج تلقائية لمعايير تقييم النماذج الشاملة باتباع Benchmark Suite V3. يتم التنشيط تلقائيًا لقياس النماذج أو تقييم المقارنة أو اختبار الأداء بين نماذج الذكاء الاصطناعي.
ثبّت مهارة الذكاء الاصطناعي model-evaluation-benchmark بسرعة في بيئة التطوير لديك عبر سطر الأوامر
المصدر: rysweet/amplihack.
Purpose: Automated reproduction of comprehensive model evaluation benchmarks following the Benchmark Suite V3 reference implementation.
Auto-activates when: User requests model benchmarking, comparison evaluation, or performance testing between AI models in agentic workflows.
This skill orchestrates end-to-end model evaluation benchmarks that measure:
إعادة إنتاج تلقائية لمعايير تقييم النماذج الشاملة باتباع Benchmark Suite V3. يتم التنشيط تلقائيًا لقياس النماذج أو تقييم المقارنة أو اختبار الأداء بين نماذج الذكاء الاصطناعي. المصدر: rysweet/amplihack.
حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.
npx skills add https://github.com/rysweet/amplihack --skill model-evaluation-benchmarkإعادة إنتاج تلقائية لمعايير تقييم النماذج الشاملة باتباع Benchmark Suite V3. يتم التنشيط تلقائيًا لقياس النماذج أو تقييم المقارنة أو اختبار الأداء بين نماذج الذكاء الاصطناعي. المصدر: rysweet/amplihack.
افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/rysweet/amplihack --skill model-evaluation-benchmark بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw
https://github.com/rysweet/amplihack