·msmodelslim

Strumento di compressione del modello Huawei Ascend NPU (msModelSlim). Utilizzare per la quantizzazione LLM (W4A8, W8A8, W8A8S, W8A16), compressione del modello MoE, compressione del modello multimodale (Qwen-VL, InternVL, HunyuanVideo, FLUX, SD3), preparazione dei dati di calibrazione, regolazione automatica di precisione, analisi dei livelli sensibili, integrazione del modello personalizzato e distribuzione in MindIE/vLLM-Ascend. Supporta Qwen, LLaMA, DeepSeek, GLM, Kimi, InternLM e altri.

25Installazioni·1Tendenza·@ascend-ai-coding

Installazione

$npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill msmodelslim

Come installare msmodelslim

Installa rapidamente la skill AI msmodelslim nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill msmodelslim
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: ascend-ai-coding/awesome-ascend-skills.

MindStudio ModelSlim (msModelSlim) is a model compression tool optimized for Huawei Ascend AI processors. It supports quantization and compression for LLMs, MoE models, and multimodal models.

V1 automatic quantization uses configuration files from labpractice/ directory.

Note: Find config files in labpractice/ directory of msmodelslim repository: Structure: labpractice/ / - -v1.yaml Example: labpractice/qwen2.5/qwen2.5-7b-w8a8-v1.yaml

Strumento di compressione del modello Huawei Ascend NPU (msModelSlim). Utilizzare per la quantizzazione LLM (W4A8, W8A8, W8A8S, W8A16), compressione del modello MoE, compressione del modello multimodale (Qwen-VL, InternVL, HunyuanVideo, FLUX, SD3), preparazione dei dati di calibrazione, regolazione automatica di precisione, analisi dei livelli sensibili, integrazione del modello personalizzato e distribuzione in MindIE/vLLM-Ascend. Supporta Qwen, LLaMA, DeepSeek, GLM, Kimi, InternLM e altri. Fonte: ascend-ai-coding/awesome-ascend-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill msmodelslim
Categoria
{}Analisi
Verificato
Prima apparizione
2026-02-26
Aggiornato
2026-03-11

Browse more skills from ascend-ai-coding/awesome-ascend-skills

Risposte rapide

Che cos'è msmodelslim?

Strumento di compressione del modello Huawei Ascend NPU (msModelSlim). Utilizzare per la quantizzazione LLM (W4A8, W8A8, W8A8S, W8A16), compressione del modello MoE, compressione del modello multimodale (Qwen-VL, InternVL, HunyuanVideo, FLUX, SD3), preparazione dei dati di calibrazione, regolazione automatica di precisione, analisi dei livelli sensibili, integrazione del modello personalizzato e distribuzione in MindIE/vLLM-Ascend. Supporta Qwen, LLaMA, DeepSeek, GLM, Kimi, InternLM e altri. Fonte: ascend-ai-coding/awesome-ascend-skills.

Come installo msmodelslim?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill msmodelslim Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/ascend-ai-coding/awesome-ascend-skills