model-pruning
✓Wanda や SparseGPT などの枝刈り手法を使用して、LLM サイズを削減し、推論を高速化します。再トレーニングせずにモデルを圧縮する場合、精度損失を最小限に抑えて 50% のスパース性を達成する場合、またはハードウェア アクセラレータでのより高速な推論を可能にする場合に使用します。非構造化プルーニング、構造化プルーニング、N:M スパース性、マグニチュード プルーニング、およびワンショット手法をカバーします。
SKILL.md
Key Techniques: Wanda (weights × activations), SparseGPT (second-order), structured pruning, N:M sparsity
Papers: Wanda ICLR 2024 (arXiv 2306.11695), SparseGPT (arXiv 2301.00774)
| Method | Accuracy Loss | Speed | Memory | Retraining Needed |
Wanda や SparseGPT などの枝刈り手法を使用して、LLM サイズを削減し、推論を高速化します。再トレーニングせずにモデルを圧縮する場合、精度損失を最小限に抑えて 50% のスパース性を達成する場合、またはハードウェア アクセラレータでのより高速な推論を可能にする場合に使用します。非構造化プルーニング、構造化プルーニング、N:M スパース性、マグニチュード プルーニング、およびワンショット手法をカバーします。 ソース: orchestra-research/ai-research-skills。
引用可能な情報
AI/検索での引用用の安定したフィールドとコマンド。
- インストールコマンド
npx skills add https://github.com/orchestra-research/ai-research-skills --skill model-pruning- カテゴリ
- </>開発ツール
- 認証済み
- ✓
- 初回登録
- 2026-02-11
- 更新日
- 2026-02-18
クイックアンサー
model-pruning とは?
Wanda や SparseGPT などの枝刈り手法を使用して、LLM サイズを削減し、推論を高速化します。再トレーニングせずにモデルを圧縮する場合、精度損失を最小限に抑えて 50% のスパース性を達成する場合、またはハードウェア アクセラレータでのより高速な推論を可能にする場合に使用します。非構造化プルーニング、構造化プルーニング、N:M スパース性、マグニチュード プルーニング、およびワンショット手法をカバーします。 ソース: orchestra-research/ai-research-skills。
model-pruning のインストール方法は?
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/orchestra-research/ai-research-skills --skill model-pruning インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります
ソースリポジトリはどこですか?
https://github.com/orchestra-research/ai-research-skills
詳細
- カテゴリ
- </>開発ツール
- ソース
- skills.sh
- 初回登録
- 2026-02-11