model_finetuning
✓Optimieren Sie LLMs mithilfe von Reinforcement Learning mit TRL – SFT zur Anweisungsoptimierung, DPO zur Präferenzausrichtung, PPO/GRPO zur Belohnungsoptimierung und Belohnungsmodelltraining. Verwenden Sie bei Bedarf RLHF, richten Sie das Modell an Präferenzen aus oder trainieren Sie anhand von menschlichem Feedback. Funktioniert mit HuggingFace Transformers.
Installation
SKILL.md
TRL provides post-training methods for aligning language models with human preferences.
Workflow 1: Full RLHF pipeline (SFT → Reward Model → PPO)
SFT training guide: See references/sft-training.md for dataset formats, chat templates, packing strategies, and multi-GPU training.
Optimieren Sie LLMs mithilfe von Reinforcement Learning mit TRL – SFT zur Anweisungsoptimierung, DPO zur Präferenzausrichtung, PPO/GRPO zur Belohnungsoptimierung und Belohnungsmodelltraining. Verwenden Sie bei Bedarf RLHF, richten Sie das Modell an Präferenzen aus oder trainieren Sie anhand von menschlichem Feedback. Funktioniert mit HuggingFace Transformers. Quelle: vuralserhat86/antigravity-agentic-skills.
Fakten (zitierbereit)
Stabile Felder und Befehle für KI/Such-Zitate.
- Installationsbefehl
npx skills add https://github.com/vuralserhat86/antigravity-agentic-skills --skill model_finetuning- Kategorie
- </>Entwicklung
- Verifiziert
- ✓
- Erstes Auftreten
- 2026-02-01
- Aktualisiert
- 2026-02-18
Schnelle Antworten
Was ist model_finetuning?
Optimieren Sie LLMs mithilfe von Reinforcement Learning mit TRL – SFT zur Anweisungsoptimierung, DPO zur Präferenzausrichtung, PPO/GRPO zur Belohnungsoptimierung und Belohnungsmodelltraining. Verwenden Sie bei Bedarf RLHF, richten Sie das Modell an Präferenzen aus oder trainieren Sie anhand von menschlichem Feedback. Funktioniert mit HuggingFace Transformers. Quelle: vuralserhat86/antigravity-agentic-skills.
Wie installiere ich model_finetuning?
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/vuralserhat86/antigravity-agentic-skills --skill model_finetuning Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Wo ist das Quell-Repository?
https://github.com/vuralserhat86/antigravity-agentic-skills
Details
- Kategorie
- </>Entwicklung
- Quelle
- skills.sh
- Erstes Auftreten
- 2026-02-01