ما هي llm-training؟
يستخدم عند "تدريب LLM"، "finetuning"، "RLHF"، "التدريب الموزع"، "DeepSpeed"، "Accelerate"، "PyTorch Lightning"، "Ray Train"، "TRL"، "Unsloth"، "تدريب LoRA"، "انتباه الفلاش"، "نقطة التفتيش المتدرجة" المصدر: eyadsibai/ltk.
يستخدم عند "تدريب LLM"، "finetuning"، "RLHF"، "التدريب الموزع"، "DeepSpeed"، "Accelerate"، "PyTorch Lightning"، "Ray Train"، "TRL"، "Unsloth"، "تدريب LoRA"، "انتباه الفلاش"، "نقطة التفتيش المتدرجة"
ثبّت مهارة الذكاء الاصطناعي llm-training بسرعة في بيئة التطوير لديك عبر سطر الأوامر
المصدر: eyadsibai/ltk.
Frameworks and techniques for training and finetuning large language models.
| Framework | Best For | Multi-GPU | Memory Efficient |
| Accelerate | Simple distributed | Yes | Basic | | DeepSpeed | Large models, ZeRO | Yes | Excellent | | PyTorch Lightning | Clean training loops | Yes | Good | | Ray Train | Scalable, multi-node | Yes | Good | | TRL | RLHF, reward modeling | Yes | Good | | Unsloth | Fast LoRA finetuning | Limited | Excellent |
يستخدم عند "تدريب LLM"، "finetuning"، "RLHF"، "التدريب الموزع"، "DeepSpeed"، "Accelerate"، "PyTorch Lightning"، "Ray Train"، "TRL"، "Unsloth"، "تدريب LoRA"، "انتباه الفلاش"، "نقطة التفتيش المتدرجة" المصدر: eyadsibai/ltk.
حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.
npx skills add https://github.com/eyadsibai/ltk --skill llm-trainingيستخدم عند "تدريب LLM"، "finetuning"، "RLHF"، "التدريب الموزع"، "DeepSpeed"، "Accelerate"، "PyTorch Lightning"، "Ray Train"، "TRL"، "Unsloth"، "تدريب LoRA"، "انتباه الفلاش"، "نقطة التفتيش المتدرجة" المصدر: eyadsibai/ltk.
افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/eyadsibai/ltk --skill llm-training بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw
https://github.com/eyadsibai/ltk