·vllm-ascend
</>

vllm-ascend

vLLM Ascend-Plugin für die Bereitstellung von LLM-Inferenzen auf der Huawei Ascend NPU. Verwendung für Offline-Batch-Inferenz, API-Serverbereitstellung, Quantisierungsinferenz (mit quantisierten msmodelslim-Modellen), Tensor-/Pipeline-Parallelität für verteilte Bereitstellung und OpenAI-kompatible API-Endpunkte. Unterstützt Qwen-, DeepSeek-, GLM- und LLaMA-Modelle mit Ascend-optimierten Kerneln.

15Installationen·1Trend·@ascend-ai-coding

Installation

$npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend

So installieren Sie vllm-ascend

Installieren Sie den KI-Skill vllm-ascend schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: ascend-ai-coding/awesome-ascend-skills.

vLLM-Ascend is a plugin for vLLM that enables efficient LLM inference on Huawei Ascend AI processors. It provides Ascend-optimized kernels, quantization support, and distributed inference capabilities.

vLLM-Ascend supports models quantized with msModelSlim. For quantization details, see msmodelslim.

| Parameter | Default | Description | Tuning Advice |

vLLM Ascend-Plugin für die Bereitstellung von LLM-Inferenzen auf der Huawei Ascend NPU. Verwendung für Offline-Batch-Inferenz, API-Serverbereitstellung, Quantisierungsinferenz (mit quantisierten msmodelslim-Modellen), Tensor-/Pipeline-Parallelität für verteilte Bereitstellung und OpenAI-kompatible API-Endpunkte. Unterstützt Qwen-, DeepSeek-, GLM- und LLaMA-Modelle mit Ascend-optimierten Kerneln. Quelle: ascend-ai-coding/awesome-ascend-skills.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-03-09
Aktualisiert
2026-03-10

Browse more skills from ascend-ai-coding/awesome-ascend-skills

Schnelle Antworten

Was ist vllm-ascend?

vLLM Ascend-Plugin für die Bereitstellung von LLM-Inferenzen auf der Huawei Ascend NPU. Verwendung für Offline-Batch-Inferenz, API-Serverbereitstellung, Quantisierungsinferenz (mit quantisierten msmodelslim-Modellen), Tensor-/Pipeline-Parallelität für verteilte Bereitstellung und OpenAI-kompatible API-Endpunkte. Unterstützt Qwen-, DeepSeek-, GLM- und LLaMA-Modelle mit Ascend-optimierten Kerneln. Quelle: ascend-ai-coding/awesome-ascend-skills.

Wie installiere ich vllm-ascend?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/ascend-ai-coding/awesome-ascend-skills