·msmodelslim

Herramienta de compresión de modelos Huawei Ascend NPU (msModelSlim). Úselo para cuantificación LLM (W4A8, W8A8, W8A8S, W8A16), compresión de modelos MoE, compresión de modelos multimodal (Qwen-VL, InternVL, HunyuanVideo, FLUX, SD3), preparación de datos de calibración, ajuste automático de precisión, análisis de capas sensibles, integración de modelos personalizados e implementación en MindIE/vLLM-Ascend. Admite Qwen, LLaMA, DeepSeek, GLM, Kimi, InternLM y más.

25Instalaciones·1Tendencia·@ascend-ai-coding

Instalación

$npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill msmodelslim

Cómo instalar msmodelslim

Instala rápidamente el skill de IA msmodelslim en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill msmodelslim
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: ascend-ai-coding/awesome-ascend-skills.

SKILL.md

Ver original

MindStudio ModelSlim (msModelSlim) is a model compression tool optimized for Huawei Ascend AI processors. It supports quantization and compression for LLMs, MoE models, and multimodal models.

V1 automatic quantization uses configuration files from labpractice/ directory.

Note: Find config files in labpractice/ directory of msmodelslim repository: Structure: labpractice/ / - -v1.yaml Example: labpractice/qwen2.5/qwen2.5-7b-w8a8-v1.yaml

Herramienta de compresión de modelos Huawei Ascend NPU (msModelSlim). Úselo para cuantificación LLM (W4A8, W8A8, W8A8S, W8A16), compresión de modelos MoE, compresión de modelos multimodal (Qwen-VL, InternVL, HunyuanVideo, FLUX, SD3), preparación de datos de calibración, ajuste automático de precisión, análisis de capas sensibles, integración de modelos personalizados e implementación en MindIE/vLLM-Ascend. Admite Qwen, LLaMA, DeepSeek, GLM, Kimi, InternLM y más. Fuente: ascend-ai-coding/awesome-ascend-skills.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill msmodelslim
Categoría
{}Análisis de Datos
Verificado
Primera vez visto
2026-02-26
Actualizado
2026-03-11

Browse more skills from ascend-ai-coding/awesome-ascend-skills

Respuestas rápidas

¿Qué es msmodelslim?

Herramienta de compresión de modelos Huawei Ascend NPU (msModelSlim). Úselo para cuantificación LLM (W4A8, W8A8, W8A8S, W8A16), compresión de modelos MoE, compresión de modelos multimodal (Qwen-VL, InternVL, HunyuanVideo, FLUX, SD3), preparación de datos de calibración, ajuste automático de precisión, análisis de capas sensibles, integración de modelos personalizados e implementación en MindIE/vLLM-Ascend. Admite Qwen, LLaMA, DeepSeek, GLM, Kimi, InternLM y más. Fuente: ascend-ai-coding/awesome-ascend-skills.

¿Cómo instalo msmodelslim?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill msmodelslim Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/ascend-ai-coding/awesome-ascend-skills

Detalles

Categoría
{}Análisis de Datos
Fuente
skills.sh
Primera vez visto
2026-02-26