model-pruning
✓Wanda 및 SparseGPT와 같은 가지치기 기술을 사용하여 LLM 크기를 줄이고 추론을 가속화합니다. 재교육 없이 모델을 압축하거나, 정확도 손실을 최소화하면서 50% 희소성을 달성하거나, 하드웨어 가속기에서 더 빠른 추론을 활성화할 때 사용합니다. 비구조적 가지치기, 구조적 가지치기, N:M 희소성, 크기 가지치기 및 원샷 방법을 다룹니다.
SKILL.md
Key Techniques: Wanda (weights × activations), SparseGPT (second-order), structured pruning, N:M sparsity
Papers: Wanda ICLR 2024 (arXiv 2306.11695), SparseGPT (arXiv 2301.00774)
| Method | Accuracy Loss | Speed | Memory | Retraining Needed |
Wanda 및 SparseGPT와 같은 가지치기 기술을 사용하여 LLM 크기를 줄이고 추론을 가속화합니다. 재교육 없이 모델을 압축하거나, 정확도 손실을 최소화하면서 50% 희소성을 달성하거나, 하드웨어 가속기에서 더 빠른 추론을 활성화할 때 사용합니다. 비구조적 가지치기, 구조적 가지치기, N:M 희소성, 크기 가지치기 및 원샷 방법을 다룹니다. 출처: ovachiever/droid-tings.
인용 가능한 정보
AI/검색 인용용 안정적인 필드와 명령어.
- 설치 명령어
npx skills add https://github.com/ovachiever/droid-tings --skill model-pruning- 카테고리
- </>개발 도구
- 인증됨
- ✓
- 최초 등록
- 2026-02-01
- 업데이트
- 2026-02-18
빠른 답변
model-pruning이란?
Wanda 및 SparseGPT와 같은 가지치기 기술을 사용하여 LLM 크기를 줄이고 추론을 가속화합니다. 재교육 없이 모델을 압축하거나, 정확도 손실을 최소화하면서 50% 희소성을 달성하거나, 하드웨어 가속기에서 더 빠른 추론을 활성화할 때 사용합니다. 비구조적 가지치기, 구조적 가지치기, N:M 희소성, 크기 가지치기 및 원샷 방법을 다룹니다. 출처: ovachiever/droid-tings.
model-pruning 설치 방법은?
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/ovachiever/droid-tings --skill model-pruning 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다
소스 저장소는 어디인가요?
https://github.com/ovachiever/droid-tings
상세
- 카테고리
- </>개발 도구
- 출처
- skills.sh
- 최초 등록
- 2026-02-01