·model-pruning
</>

model-pruning

ovachiever/droid-tings

Réduisez la taille du LLM et accélérez l’inférence à l’aide de techniques d’élagage telles que Wanda et SparseGPT. À utiliser lors de la compression de modèles sans recyclage, pour obtenir une parcimonie de 50 % avec une perte de précision minimale ou pour permettre une inférence plus rapide sur les accélérateurs matériels. Couvre l'élagage non structuré, l'élagage structuré, la parcimonie N: M, l'élagage d'ampleur et les méthodes ponctuelles.

21Installations·0Tendance·@ovachiever

Installation

$npx skills add https://github.com/ovachiever/droid-tings --skill model-pruning

SKILL.md

Key Techniques: Wanda (weights × activations), SparseGPT (second-order), structured pruning, N:M sparsity

Papers: Wanda ICLR 2024 (arXiv 2306.11695), SparseGPT (arXiv 2301.00774)

| Method | Accuracy Loss | Speed | Memory | Retraining Needed |

Réduisez la taille du LLM et accélérez l’inférence à l’aide de techniques d’élagage telles que Wanda et SparseGPT. À utiliser lors de la compression de modèles sans recyclage, pour obtenir une parcimonie de 50 % avec une perte de précision minimale ou pour permettre une inférence plus rapide sur les accélérateurs matériels. Couvre l'élagage non structuré, l'élagage structuré, la parcimonie N: M, l'élagage d'ampleur et les méthodes ponctuelles. Source : ovachiever/droid-tings.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/ovachiever/droid-tings --skill model-pruning
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-01
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que model-pruning ?

Réduisez la taille du LLM et accélérez l’inférence à l’aide de techniques d’élagage telles que Wanda et SparseGPT. À utiliser lors de la compression de modèles sans recyclage, pour obtenir une parcimonie de 50 % avec une perte de précision minimale ou pour permettre une inférence plus rapide sur les accélérateurs matériels. Couvre l'élagage non structuré, l'élagage structuré, la parcimonie N: M, l'élagage d'ampleur et les méthodes ponctuelles. Source : ovachiever/droid-tings.

Comment installer model-pruning ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/ovachiever/droid-tings --skill model-pruning Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/ovachiever/droid-tings