·msmodelslim

Outil de compression de modèle Huawei Ascend NPU (msModelSlim). Utilisation pour la quantification LLM (W4A8, W8A8, W8A8S, W8A16), la compression de modèle MoE, la compression de modèle multimodal (Qwen-VL, InternVL, HunyuanVideo, FLUX, SD3), la préparation des données d'étalonnage, le réglage automatique de précision, l'analyse des couches sensibles, l'intégration de modèles personnalisés et le déploiement dans MindIE/vLLM-Ascend. Prend en charge Qwen, LLaMA, DeepSeek, GLM, Kimi, InternLM et plus encore.

24Installations·0Tendance·@ascend-ai-coding

Installation

$npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill msmodelslim

Comment installer msmodelslim

Installez rapidement le skill IA msmodelslim dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill msmodelslim
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : ascend-ai-coding/awesome-ascend-skills.

MindStudio ModelSlim (msModelSlim) is a model compression tool optimized for Huawei Ascend AI processors. It supports quantization and compression for LLMs, MoE models, and multimodal models.

V1 automatic quantization uses configuration files from labpractice/ directory.

Note: Find config files in labpractice/ directory of msmodelslim repository: Structure: labpractice/ / - -v1.yaml Example: labpractice/qwen2.5/qwen2.5-7b-w8a8-v1.yaml

Outil de compression de modèle Huawei Ascend NPU (msModelSlim). Utilisation pour la quantification LLM (W4A8, W8A8, W8A8S, W8A16), la compression de modèle MoE, la compression de modèle multimodal (Qwen-VL, InternVL, HunyuanVideo, FLUX, SD3), la préparation des données d'étalonnage, le réglage automatique de précision, l'analyse des couches sensibles, l'intégration de modèles personnalisés et le déploiement dans MindIE/vLLM-Ascend. Prend en charge Qwen, LLaMA, DeepSeek, GLM, Kimi, InternLM et plus encore. Source : ascend-ai-coding/awesome-ascend-skills.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill msmodelslim
Catégorie
{}Analyse de Données
Vérifié
Première apparition
2026-02-26
Mis à jour
2026-03-10

Browse more skills from ascend-ai-coding/awesome-ascend-skills

Réponses rapides

Qu'est-ce que msmodelslim ?

Outil de compression de modèle Huawei Ascend NPU (msModelSlim). Utilisation pour la quantification LLM (W4A8, W8A8, W8A8S, W8A16), la compression de modèle MoE, la compression de modèle multimodal (Qwen-VL, InternVL, HunyuanVideo, FLUX, SD3), la préparation des données d'étalonnage, le réglage automatique de précision, l'analyse des couches sensibles, l'intégration de modèles personnalisés et le déploiement dans MindIE/vLLM-Ascend. Prend en charge Qwen, LLaMA, DeepSeek, GLM, Kimi, InternLM et plus encore. Source : ascend-ai-coding/awesome-ascend-skills.

Comment installer msmodelslim ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill msmodelslim Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/ascend-ai-coding/awesome-ascend-skills

Détails

Catégorie
{}Analyse de Données
Source
skills.sh
Première apparition
2026-02-26