fine-tuning-customization
✓LoRA, QLoRA, DPO 정렬 및 합성 데이터 생성을 통한 LLM 미세 조정. 효율적인 교육, 선호 학습, 데이터 생성. 특정 도메인에 대한 모델을 사용자 정의할 때 사용합니다.
SKILL.md
Customize LLMs for specific domains using parameter-efficient fine-tuning and alignment techniques.
Unsloth 2026: 7x longer context RL, FP8 RL on consumer GPUs, rsLoRA support. TRL: OpenEnv integration, vLLM server mode, transformers 5.0.0+ compatible.
| Approach | Try First | When It Works |
LoRA, QLoRA, DPO 정렬 및 합성 데이터 생성을 통한 LLM 미세 조정. 효율적인 교육, 선호 학습, 데이터 생성. 특정 도메인에 대한 모델을 사용자 정의할 때 사용합니다. 출처: yonatangross/orchestkit.
인용 가능한 정보
AI/검색 인용용 안정적인 필드와 명령어.
- 설치 명령어
npx skills add https://github.com/yonatangross/orchestkit --skill fine-tuning-customization- 카테고리
- {}데이터 분석
- 인증됨
- ✓
- 최초 등록
- 2026-02-01
- 업데이트
- 2026-02-18
빠른 답변
fine-tuning-customization이란?
LoRA, QLoRA, DPO 정렬 및 합성 데이터 생성을 통한 LLM 미세 조정. 효율적인 교육, 선호 학습, 데이터 생성. 특정 도메인에 대한 모델을 사용자 정의할 때 사용합니다. 출처: yonatangross/orchestkit.
fine-tuning-customization 설치 방법은?
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/yonatangross/orchestkit --skill fine-tuning-customization 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다
소스 저장소는 어디인가요?
https://github.com/yonatangross/orchestkit
상세
- 카테고리
- {}데이터 분석
- 출처
- skills.sh
- 최초 등록
- 2026-02-01