peft-fine-tuning
✓LoRA, QLoRA 및 25개 이상의 방법을 사용하여 LLM에 대한 매개변수 효율적인 미세 조정. GPU 메모리가 제한된 대규모 모델(7B-70B)을 미세 조정할 때, 정확도 손실을 최소화하면서 1% 미만의 매개변수를 학습해야 할 때 또는 다중 어댑터 제공에 사용하세요. HuggingFace의 공식 라이브러리는 Transformers 생태계와 통합되어 있습니다.
SKILL.md
Fine-tune LLMs by training <1% of parameters using LoRA, QLoRA, and 25+ adapter methods.
| Rank | Trainable Params | Memory | Quality | Use Case |
| 4 | 3M | Minimal | Lower | Simple tasks, prototyping | | 8 | 7M | Low | Good | Recommended starting point | | 16 | 14M | Medium | Better | General fine-tuning | | 32 | 27M | Higher | High | Complex tasks | | 64 | 54M | High | Highest | Domain adaptation, 70B models |
LoRA, QLoRA 및 25개 이상의 방법을 사용하여 LLM에 대한 매개변수 효율적인 미세 조정. GPU 메모리가 제한된 대규모 모델(7B-70B)을 미세 조정할 때, 정확도 손실을 최소화하면서 1% 미만의 매개변수를 학습해야 할 때 또는 다중 어댑터 제공에 사용하세요. HuggingFace의 공식 라이브러리는 Transformers 생태계와 통합되어 있습니다. 출처: orchestra-research/ai-research-skills.
인용 가능한 정보
AI/검색 인용용 안정적인 필드와 명령어.
- 설치 명령어
npx skills add https://github.com/orchestra-research/ai-research-skills --skill peft-fine-tuning- 카테고리
- </>개발 도구
- 인증됨
- ✓
- 최초 등록
- 2026-02-11
- 업데이트
- 2026-02-18
빠른 답변
peft-fine-tuning이란?
LoRA, QLoRA 및 25개 이상의 방법을 사용하여 LLM에 대한 매개변수 효율적인 미세 조정. GPU 메모리가 제한된 대규모 모델(7B-70B)을 미세 조정할 때, 정확도 손실을 최소화하면서 1% 미만의 매개변수를 학습해야 할 때 또는 다중 어댑터 제공에 사용하세요. HuggingFace의 공식 라이브러리는 Transformers 생태계와 통합되어 있습니다. 출처: orchestra-research/ai-research-skills.
peft-fine-tuning 설치 방법은?
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/orchestra-research/ai-research-skills --skill peft-fine-tuning 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다
소스 저장소는 어디인가요?
https://github.com/orchestra-research/ai-research-skills
상세
- 카테고리
- </>개발 도구
- 출처
- skills.sh
- 최초 등록
- 2026-02-11