·knowledge-distillation
</>

knowledge-distillation

Comprimi modelli linguistici di grandi dimensioni utilizzando la distillazione della conoscenza dai modelli insegnante a studente. Da utilizzare durante la distribuzione di modelli più piccoli con prestazioni mantenute, il trasferimento di funzionalità GPT-4 a modelli open source o la riduzione dei costi di inferenza. Copre il ridimensionamento della temperatura, i soft target, il KLD inverso, la distillazione logit e le strategie di formazione MiniLLM.

42Installazioni·1Tendenza·@orchestra-research

Installazione

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill knowledge-distillation

Come installare knowledge-distillation

Installa rapidamente la skill AI knowledge-distillation nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/orchestra-research/ai-research-skills --skill knowledge-distillation
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: orchestra-research/ai-research-skills.

Key Techniques: Temperature scaling, soft targets, reverse KLD (MiniLLM), logit distillation, response distillation

Papers: Hinton et al. 2015 (arXiv 1503.02531), MiniLLM (arXiv 2306.08543), KD Survey (arXiv 2402.13116)

Innovation: Use reverse KLD instead of forward KLD for better generative model distillation.

Comprimi modelli linguistici di grandi dimensioni utilizzando la distillazione della conoscenza dai modelli insegnante a studente. Da utilizzare durante la distribuzione di modelli più piccoli con prestazioni mantenute, il trasferimento di funzionalità GPT-4 a modelli open source o la riduzione dei costi di inferenza. Copre il ridimensionamento della temperatura, i soft target, il KLD inverso, la distillazione logit e le strategie di formazione MiniLLM. Fonte: orchestra-research/ai-research-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/orchestra-research/ai-research-skills --skill knowledge-distillation
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-11
Aggiornato
2026-03-10

Browse more skills from orchestra-research/ai-research-skills

Risposte rapide

Che cos'è knowledge-distillation?

Comprimi modelli linguistici di grandi dimensioni utilizzando la distillazione della conoscenza dai modelli insegnante a studente. Da utilizzare durante la distribuzione di modelli più piccoli con prestazioni mantenute, il trasferimento di funzionalità GPT-4 a modelli open source o la riduzione dei costi di inferenza. Copre il ridimensionamento della temperatura, i soft target, il KLD inverso, la distillazione logit e le strategie di formazione MiniLLM. Fonte: orchestra-research/ai-research-skills.

Come installo knowledge-distillation?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/orchestra-research/ai-research-skills --skill knowledge-distillation Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/orchestra-research/ai-research-skills