fine-tuning-customization
✓LLM 通過 LoRA、QLoRA、DPO 對齊和合成數據生成進行微調。高效培訓、偏好學習、數據創建。在為特定領域定制模型時使用。
SKILL.md
Customize LLMs for specific domains using parameter-efficient fine-tuning and alignment techniques.
Unsloth 2026: 7x longer context RL, FP8 RL on consumer GPUs, rsLoRA support. TRL: OpenEnv integration, vLLM server mode, transformers 5.0.0+ compatible.
| Approach | Try First | When It Works |
LLM 通過 LoRA、QLoRA、DPO 對齊和合成數據生成進行微調。高效培訓、偏好學習、數據創建。在為特定領域定制模型時使用。 來源:yonatangross/orchestkit。
可引用資訊
為搜尋與 AI 引用準備的穩定欄位與指令。
- 安裝指令
npx skills add https://github.com/yonatangross/orchestkit --skill fine-tuning-customization- 分類
- {}資料分析
- 認證
- ✓
- 收錄時間
- 2026-02-01
- 更新時間
- 2026-02-18
快速解答
什麼是 fine-tuning-customization?
LLM 通過 LoRA、QLoRA、DPO 對齊和合成數據生成進行微調。高效培訓、偏好學習、數據創建。在為特定領域定制模型時使用。 來源:yonatangross/orchestkit。
如何安裝 fine-tuning-customization?
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/yonatangross/orchestkit --skill fine-tuning-customization 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code 或 Cursor 中使用
這個 Skill 的原始碼在哪?
https://github.com/yonatangross/orchestkit
詳情
- 分類
- {}資料分析
- 來源
- skills.sh
- 收錄時間
- 2026-02-01