model_finetuning
✓Affinez les LLM à l'aide de l'apprentissage par renforcement avec TRL - SFT pour le réglage des instructions, DPO pour l'alignement des préférences, PPO/GRPO pour l'optimisation des récompenses et la formation du modèle de récompense. Utilisez en cas de besoin RLHF, alignez le modèle avec les préférences ou entraînez-vous à partir des commentaires humains. Fonctionne avec les transformateurs HuggingFace.
Installation
SKILL.md
TRL provides post-training methods for aligning language models with human preferences.
Workflow 1: Full RLHF pipeline (SFT → Reward Model → PPO)
SFT training guide: See references/sft-training.md for dataset formats, chat templates, packing strategies, and multi-GPU training.
Affinez les LLM à l'aide de l'apprentissage par renforcement avec TRL - SFT pour le réglage des instructions, DPO pour l'alignement des préférences, PPO/GRPO pour l'optimisation des récompenses et la formation du modèle de récompense. Utilisez en cas de besoin RLHF, alignez le modèle avec les préférences ou entraînez-vous à partir des commentaires humains. Fonctionne avec les transformateurs HuggingFace. Source : vuralserhat86/antigravity-agentic-skills.
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/vuralserhat86/antigravity-agentic-skills --skill model_finetuning- Catégorie
- </>Développement
- Vérifié
- ✓
- Première apparition
- 2026-02-01
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que model_finetuning ?
Affinez les LLM à l'aide de l'apprentissage par renforcement avec TRL - SFT pour le réglage des instructions, DPO pour l'alignement des préférences, PPO/GRPO pour l'optimisation des récompenses et la formation du modèle de récompense. Utilisez en cas de besoin RLHF, alignez le modèle avec les préférences ou entraînez-vous à partir des commentaires humains. Fonctionne avec les transformateurs HuggingFace. Source : vuralserhat86/antigravity-agentic-skills.
Comment installer model_finetuning ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/vuralserhat86/antigravity-agentic-skills --skill model_finetuning Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/vuralserhat86/antigravity-agentic-skills
Détails
- Catégorie
- </>Développement
- Source
- skills.sh
- Première apparition
- 2026-02-01