·model-pruning
</>

model-pruning

orchestra-research/ai-research-skills

Wanda 및 SparseGPT와 같은 가지치기 기술을 사용하여 LLM 크기를 줄이고 추론을 가속화합니다. 재교육 없이 모델을 압축하거나, 정확도 손실을 최소화하면서 50% 희소성을 달성하거나, 하드웨어 가속기에서 더 빠른 추론을 활성화할 때 사용합니다. 비구조적 가지치기, 구조적 가지치기, N:M 희소성, 크기 가지치기 및 원샷 방법을 다룹니다.

16설치·1트렌드·@orchestra-research

설치

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill model-pruning

SKILL.md

Key Techniques: Wanda (weights × activations), SparseGPT (second-order), structured pruning, N:M sparsity

Papers: Wanda ICLR 2024 (arXiv 2306.11695), SparseGPT (arXiv 2301.00774)

| Method | Accuracy Loss | Speed | Memory | Retraining Needed |

Wanda 및 SparseGPT와 같은 가지치기 기술을 사용하여 LLM 크기를 줄이고 추론을 가속화합니다. 재교육 없이 모델을 압축하거나, 정확도 손실을 최소화하면서 50% 희소성을 달성하거나, 하드웨어 가속기에서 더 빠른 추론을 활성화할 때 사용합니다. 비구조적 가지치기, 구조적 가지치기, N:M 희소성, 크기 가지치기 및 원샷 방법을 다룹니다. 출처: orchestra-research/ai-research-skills.

원본 보기

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/orchestra-research/ai-research-skills --skill model-pruning
카테고리
</>개발 도구
인증됨
최초 등록
2026-02-11
업데이트
2026-02-18

빠른 답변

model-pruning이란?

Wanda 및 SparseGPT와 같은 가지치기 기술을 사용하여 LLM 크기를 줄이고 추론을 가속화합니다. 재교육 없이 모델을 압축하거나, 정확도 손실을 최소화하면서 50% 희소성을 달성하거나, 하드웨어 가속기에서 더 빠른 추론을 활성화할 때 사용합니다. 비구조적 가지치기, 구조적 가지치기, N:M 희소성, 크기 가지치기 및 원샷 방법을 다룹니다. 출처: orchestra-research/ai-research-skills.

model-pruning 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/orchestra-research/ai-research-skills --skill model-pruning 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/orchestra-research/ai-research-skills

상세

카테고리
</>개발 도구
출처
skills.sh
최초 등록
2026-02-11