·vllm-ascend

Plug-in vLLM Ascend per l'inferenza LLM su Huawei Ascend NPU. Utilizzare per inferenza batch offline, distribuzione di server API, inferenza di quantizzazione (con modelli quantizzati msmodelslim), parallelismo tensore/pipeline per la distribuzione distribuita ed endpoint API compatibili con OpenAI. Supporta i modelli Qwen, DeepSeek, GLM, LLaMA con kernel ottimizzati per Ascend.

15Installazioni·1Tendenza·@ascend-ai-coding

Installazione

$npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend

Come installare vllm-ascend

Installa rapidamente la skill AI vllm-ascend nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: ascend-ai-coding/awesome-ascend-skills.

vLLM-Ascend is a plugin for vLLM that enables efficient LLM inference on Huawei Ascend AI processors. It provides Ascend-optimized kernels, quantization support, and distributed inference capabilities.

vLLM-Ascend supports models quantized with msModelSlim. For quantization details, see msmodelslim.

| Parameter | Default | Description | Tuning Advice |

Plug-in vLLM Ascend per l'inferenza LLM su Huawei Ascend NPU. Utilizzare per inferenza batch offline, distribuzione di server API, inferenza di quantizzazione (con modelli quantizzati msmodelslim), parallelismo tensore/pipeline per la distribuzione distribuita ed endpoint API compatibili con OpenAI. Supporta i modelli Qwen, DeepSeek, GLM, LLaMA con kernel ottimizzati per Ascend. Fonte: ascend-ai-coding/awesome-ascend-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-03-09
Aggiornato
2026-03-11

Browse more skills from ascend-ai-coding/awesome-ascend-skills

Risposte rapide

Che cos'è vllm-ascend?

Plug-in vLLM Ascend per l'inferenza LLM su Huawei Ascend NPU. Utilizzare per inferenza batch offline, distribuzione di server API, inferenza di quantizzazione (con modelli quantizzati msmodelslim), parallelismo tensore/pipeline per la distribuzione distribuita ed endpoint API compatibili con OpenAI. Supporta i modelli Qwen, DeepSeek, GLM, LLaMA con kernel ottimizzati per Ascend. Fonte: ascend-ai-coding/awesome-ascend-skills.

Come installo vllm-ascend?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/ascend-ai-coding/awesome-ascend-skills