ما هي grpo-rl-training؟
إرشادات الخبراء لضبط GRPO/RL باستخدام TRL للاستدلال والتدريب النموذجي الخاص بالمهمة المصدر: ovachiever/droid-tings.
إرشادات الخبراء لضبط GRPO/RL باستخدام TRL للاستدلال والتدريب النموذجي الخاص بالمهمة
ثبّت مهارة الذكاء الاصطناعي grpo-rl-training بسرعة في بيئة التطوير لديك عبر سطر الأوامر
المصدر: ovachiever/droid-tings.
Expert-level guidance for implementing Group Relative Policy Optimization (GRPO) using the Transformer Reinforcement Learning (TRL) library. This skill provides battle-tested patterns, critical insights, and production-ready workflows for fine-tuning language models with custom reward functions.
| Correctness | Verifiable tasks (math, code) | 2.0 (highest) | | Format | Strict structure enforcement | 0.5-1.0 | | Length | Encourage verbosity/conciseness | 0.1-0.5 | | Style | Penalize unwanted patterns | -0.5 to 0.5 |
Critical Insight: Combine 3-5 reward functions for robust training. Order matters less than diversity of signals.
إرشادات الخبراء لضبط GRPO/RL باستخدام TRL للاستدلال والتدريب النموذجي الخاص بالمهمة المصدر: ovachiever/droid-tings.
حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.
npx skills add https://github.com/ovachiever/droid-tings --skill grpo-rl-trainingإرشادات الخبراء لضبط GRPO/RL باستخدام TRL للاستدلال والتدريب النموذجي الخاص بالمهمة المصدر: ovachiever/droid-tings.
افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/ovachiever/droid-tings --skill grpo-rl-training بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw
https://github.com/ovachiever/droid-tings