model-pruning
✓Reduzieren Sie die LLM-Größe und beschleunigen Sie die Inferenz mithilfe von Beschneidungstechniken wie Wanda und SparseGPT. Verwenden Sie diese Option, wenn Sie Modelle ohne erneutes Training komprimieren, eine Sparsity von 50 % mit minimalem Genauigkeitsverlust erreichen oder eine schnellere Inferenz auf Hardwarebeschleunigern ermöglichen möchten. Behandelt unstrukturiertes Pruning, strukturiertes Pruning, N:M-Sparsity, Magnitude Pruning und One-Shot-Methoden.
Installation
SKILL.md
Key Techniques: Wanda (weights × activations), SparseGPT (second-order), structured pruning, N:M sparsity
Papers: Wanda ICLR 2024 (arXiv 2306.11695), SparseGPT (arXiv 2301.00774)
| Method | Accuracy Loss | Speed | Memory | Retraining Needed |
Reduzieren Sie die LLM-Größe und beschleunigen Sie die Inferenz mithilfe von Beschneidungstechniken wie Wanda und SparseGPT. Verwenden Sie diese Option, wenn Sie Modelle ohne erneutes Training komprimieren, eine Sparsity von 50 % mit minimalem Genauigkeitsverlust erreichen oder eine schnellere Inferenz auf Hardwarebeschleunigern ermöglichen möchten. Behandelt unstrukturiertes Pruning, strukturiertes Pruning, N:M-Sparsity, Magnitude Pruning und One-Shot-Methoden. Quelle: ovachiever/droid-tings.
Fakten (zitierbereit)
Stabile Felder und Befehle für KI/Such-Zitate.
- Installationsbefehl
npx skills add https://github.com/ovachiever/droid-tings --skill model-pruning- Quelle
- ovachiever/droid-tings
- Kategorie
- </>Entwicklung
- Verifiziert
- ✓
- Erstes Auftreten
- 2026-02-01
- Aktualisiert
- 2026-02-18
Schnelle Antworten
Was ist model-pruning?
Reduzieren Sie die LLM-Größe und beschleunigen Sie die Inferenz mithilfe von Beschneidungstechniken wie Wanda und SparseGPT. Verwenden Sie diese Option, wenn Sie Modelle ohne erneutes Training komprimieren, eine Sparsity von 50 % mit minimalem Genauigkeitsverlust erreichen oder eine schnellere Inferenz auf Hardwarebeschleunigern ermöglichen möchten. Behandelt unstrukturiertes Pruning, strukturiertes Pruning, N:M-Sparsity, Magnitude Pruning und One-Shot-Methoden. Quelle: ovachiever/droid-tings.
Wie installiere ich model-pruning?
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/ovachiever/droid-tings --skill model-pruning Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Wo ist das Quell-Repository?
https://github.com/ovachiever/droid-tings
Details
- Kategorie
- </>Entwicklung
- Quelle
- skills.sh
- Erstes Auftreten
- 2026-02-01