knowledge-distillation
✓Compressez de grands modèles de langage en utilisant la distillation des connaissances des modèles enseignant vers étudiants. À utiliser lors du déploiement de modèles plus petits avec des performances conservées, du transfert des fonctionnalités GPT-4 vers des modèles open source ou de la réduction des coûts d'inférence. Couvre l'échelle de température, les cibles souples, le KLD inversé, la distillation logit et les stratégies de formation MiniLLM.
Installation
SKILL.md
Key Techniques: Temperature scaling, soft targets, reverse KLD (MiniLLM), logit distillation, response distillation
Papers: Hinton et al. 2015 (arXiv 1503.02531), MiniLLM (arXiv 2306.08543), KD Survey (arXiv 2402.13116)
Innovation: Use reverse KLD instead of forward KLD for better generative model distillation.
Compressez de grands modèles de langage en utilisant la distillation des connaissances des modèles enseignant vers étudiants. À utiliser lors du déploiement de modèles plus petits avec des performances conservées, du transfert des fonctionnalités GPT-4 vers des modèles open source ou de la réduction des coûts d'inférence. Couvre l'échelle de température, les cibles souples, le KLD inversé, la distillation logit et les stratégies de formation MiniLLM. Source : ovachiever/droid-tings.
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/ovachiever/droid-tings --skill knowledge-distillation- Source
- ovachiever/droid-tings
- Catégorie
- </>Développement
- Vérifié
- ✓
- Première apparition
- 2026-02-01
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que knowledge-distillation ?
Compressez de grands modèles de langage en utilisant la distillation des connaissances des modèles enseignant vers étudiants. À utiliser lors du déploiement de modèles plus petits avec des performances conservées, du transfert des fonctionnalités GPT-4 vers des modèles open source ou de la réduction des coûts d'inférence. Couvre l'échelle de température, les cibles souples, le KLD inversé, la distillation logit et les stratégies de formation MiniLLM. Source : ovachiever/droid-tings.
Comment installer knowledge-distillation ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/ovachiever/droid-tings --skill knowledge-distillation Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/ovachiever/droid-tings
Détails
- Catégorie
- </>Développement
- Source
- skills.sh
- Première apparition
- 2026-02-01