ما هي llm-challenge؟
إدارة معيار LLM Challenge: تشغيل المعايير وإنشاء/تعديل المشكلات وتحليل النتائج وتحسين SDK بناءً على حالات الفشل. يُستخدم عندما يذكر المستخدم "llm-challenge" أو "challenge" أو "benchmark" أو "lc". المصدر: tailor-platform/sdk.
إدارة معيار LLM Challenge: تشغيل المعايير وإنشاء/تعديل المشكلات وتحليل النتائج وتحسين SDK بناءً على حالات الفشل. يُستخدم عندما يذكر المستخدم "llm-challenge" أو "challenge" أو "benchmark" أو "lc".
ثبّت مهارة الذكاء الاصطناعي llm-challenge بسرعة في بيئة التطوير لديك عبر سطر الأوامر
المصدر: tailor-platform/sdk.
Benchmark for @tailor-platform/sdk AI-friendliness. Located at llm-challenge/.
Read llm-challenge/README.md for commands, scoring, and verification details.
When AI fails a challenge, improve the SDK (JSDoc, error messages, types, CLAUDE.md) — NEVER add hints to problem.md.
إدارة معيار LLM Challenge: تشغيل المعايير وإنشاء/تعديل المشكلات وتحليل النتائج وتحسين SDK بناءً على حالات الفشل. يُستخدم عندما يذكر المستخدم "llm-challenge" أو "challenge" أو "benchmark" أو "lc". المصدر: tailor-platform/sdk.
حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.
npx skills add https://github.com/tailor-platform/sdk --skill llm-challengeإدارة معيار LLM Challenge: تشغيل المعايير وإنشاء/تعديل المشكلات وتحليل النتائج وتحسين SDK بناءً على حالات الفشل. يُستخدم عندما يذكر المستخدم "llm-challenge" أو "challenge" أو "benchmark" أو "lc". المصدر: tailor-platform/sdk.
افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/tailor-platform/sdk --skill llm-challenge بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw
https://github.com/tailor-platform/sdk