·peft-fine-tuning
</>

peft-fine-tuning

orchestra-research/ai-research-skills

LoRA, QLoRA 및 25개 이상의 방법을 사용하여 LLM에 대한 매개변수 효율적인 미세 조정. GPU 메모리가 제한된 대규모 모델(7B-70B)을 미세 조정할 때, 정확도 손실을 최소화하면서 1% 미만의 매개변수를 학습해야 할 때 또는 다중 어댑터 제공에 사용하세요. HuggingFace의 공식 라이브러리는 Transformers 생태계와 통합되어 있습니다.

16설치·0트렌드·@orchestra-research

설치

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill peft-fine-tuning

SKILL.md

Fine-tune LLMs by training <1% of parameters using LoRA, QLoRA, and 25+ adapter methods.

| Rank | Trainable Params | Memory | Quality | Use Case |

| 4 | 3M | Minimal | Lower | Simple tasks, prototyping | | 8 | 7M | Low | Good | Recommended starting point | | 16 | 14M | Medium | Better | General fine-tuning | | 32 | 27M | Higher | High | Complex tasks | | 64 | 54M | High | Highest | Domain adaptation, 70B models |

LoRA, QLoRA 및 25개 이상의 방법을 사용하여 LLM에 대한 매개변수 효율적인 미세 조정. GPU 메모리가 제한된 대규모 모델(7B-70B)을 미세 조정할 때, 정확도 손실을 최소화하면서 1% 미만의 매개변수를 학습해야 할 때 또는 다중 어댑터 제공에 사용하세요. HuggingFace의 공식 라이브러리는 Transformers 생태계와 통합되어 있습니다. 출처: orchestra-research/ai-research-skills.

원본 보기

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/orchestra-research/ai-research-skills --skill peft-fine-tuning
카테고리
</>개발 도구
인증됨
최초 등록
2026-02-11
업데이트
2026-02-18

빠른 답변

peft-fine-tuning이란?

LoRA, QLoRA 및 25개 이상의 방법을 사용하여 LLM에 대한 매개변수 효율적인 미세 조정. GPU 메모리가 제한된 대규모 모델(7B-70B)을 미세 조정할 때, 정확도 손실을 최소화하면서 1% 미만의 매개변수를 학습해야 할 때 또는 다중 어댑터 제공에 사용하세요. HuggingFace의 공식 라이브러리는 Transformers 생태계와 통합되어 있습니다. 출처: orchestra-research/ai-research-skills.

peft-fine-tuning 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/orchestra-research/ai-research-skills --skill peft-fine-tuning 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/orchestra-research/ai-research-skills

상세

카테고리
</>개발 도구
출처
skills.sh
최초 등록
2026-02-11