·knowledge-distillation
</>

knowledge-distillation

orchestra-research/ai-research-skills

Compressez de grands modèles de langage en utilisant la distillation des connaissances des modèles enseignant vers étudiants. À utiliser lors du déploiement de modèles plus petits avec des performances conservées, du transfert des fonctionnalités GPT-4 vers des modèles open source ou de la réduction des coûts d'inférence. Couvre l'échelle de température, les cibles souples, le KLD inversé, la distillation logit et les stratégies de formation MiniLLM.

16Installations·1Tendance·@orchestra-research

Installation

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill knowledge-distillation

SKILL.md

Key Techniques: Temperature scaling, soft targets, reverse KLD (MiniLLM), logit distillation, response distillation

Papers: Hinton et al. 2015 (arXiv 1503.02531), MiniLLM (arXiv 2306.08543), KD Survey (arXiv 2402.13116)

Innovation: Use reverse KLD instead of forward KLD for better generative model distillation.

Compressez de grands modèles de langage en utilisant la distillation des connaissances des modèles enseignant vers étudiants. À utiliser lors du déploiement de modèles plus petits avec des performances conservées, du transfert des fonctionnalités GPT-4 vers des modèles open source ou de la réduction des coûts d'inférence. Couvre l'échelle de température, les cibles souples, le KLD inversé, la distillation logit et les stratégies de formation MiniLLM. Source : orchestra-research/ai-research-skills.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/orchestra-research/ai-research-skills --skill knowledge-distillation
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-11
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que knowledge-distillation ?

Compressez de grands modèles de langage en utilisant la distillation des connaissances des modèles enseignant vers étudiants. À utiliser lors du déploiement de modèles plus petits avec des performances conservées, du transfert des fonctionnalités GPT-4 vers des modèles open source ou de la réduction des coûts d'inférence. Couvre l'échelle de température, les cibles souples, le KLD inversé, la distillation logit et les stratégies de formation MiniLLM. Source : orchestra-research/ai-research-skills.

Comment installer knowledge-distillation ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/orchestra-research/ai-research-skills --skill knowledge-distillation Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/orchestra-research/ai-research-skills

Détails

Catégorie
</>Développement
Source
skills.sh
Première apparition
2026-02-11