·vllm-ascend

Complemento vLLM Ascend para servicio de inferencia LLM en Huawei Ascend NPU. Úselo para inferencia por lotes fuera de línea, implementación de servidor API, inferencia de cuantificación (con modelos cuantificados msmodelslim), paralelismo de tensor/canalización para servicio distribuido y puntos finales de API compatibles con OpenAI. Admite modelos Qwen, DeepSeek, GLM, LLaMA con kernels optimizados para Ascend.

15Instalaciones·1Tendencia·@ascend-ai-coding

Instalación

$npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend

Cómo instalar vllm-ascend

Instala rápidamente el skill de IA vllm-ascend en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: ascend-ai-coding/awesome-ascend-skills.

SKILL.md

Ver original

vLLM-Ascend is a plugin for vLLM that enables efficient LLM inference on Huawei Ascend AI processors. It provides Ascend-optimized kernels, quantization support, and distributed inference capabilities.

vLLM-Ascend supports models quantized with msModelSlim. For quantization details, see msmodelslim.

| Parameter | Default | Description | Tuning Advice |

Complemento vLLM Ascend para servicio de inferencia LLM en Huawei Ascend NPU. Úselo para inferencia por lotes fuera de línea, implementación de servidor API, inferencia de cuantificación (con modelos cuantificados msmodelslim), paralelismo de tensor/canalización para servicio distribuido y puntos finales de API compatibles con OpenAI. Admite modelos Qwen, DeepSeek, GLM, LLaMA con kernels optimizados para Ascend. Fuente: ascend-ai-coding/awesome-ascend-skills.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-03-09
Actualizado
2026-03-10

Browse more skills from ascend-ai-coding/awesome-ascend-skills

Respuestas rápidas

¿Qué es vllm-ascend?

Complemento vLLM Ascend para servicio de inferencia LLM en Huawei Ascend NPU. Úselo para inferencia por lotes fuera de línea, implementación de servidor API, inferencia de cuantificación (con modelos cuantificados msmodelslim), paralelismo de tensor/canalización para servicio distribuido y puntos finales de API compatibles con OpenAI. Admite modelos Qwen, DeepSeek, GLM, LLaMA con kernels optimizados para Ascend. Fuente: ascend-ai-coding/awesome-ascend-skills.

¿Cómo instalo vllm-ascend?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/ascend-ai-coding/awesome-ascend-skills