什麼是 vllm-ascend?
vLLM Ascend 插件,用於在華為 Ascend NPU 上提供 LLM 推理服務。用於離線批次推理、API 伺服器部署、量化推理(使用 msmodelslim 量化模型)、分散式服務的張量/管道並行性以及與 OpenAI 相容的 API 端點。支援具有 Ascend 優化內核的 Qwen、DeepSeek、GLM、LLaMA 模型。 來源:ascend-ai-coding/awesome-ascend-skills。
vLLM Ascend 插件,用於在華為 Ascend NPU 上提供 LLM 推理服務。用於離線批次推理、API 伺服器部署、量化推理(使用 msmodelslim 量化模型)、分散式服務的張量/管道並行性以及與 OpenAI 相容的 API 端點。支援具有 Ascend 優化內核的 Qwen、DeepSeek、GLM、LLaMA 模型。
透過命令列快速安裝 vllm-ascend AI 技能到你的開發環境
來源:ascend-ai-coding/awesome-ascend-skills。
vLLM-Ascend is a plugin for vLLM that enables efficient LLM inference on Huawei Ascend AI processors. It provides Ascend-optimized kernels, quantization support, and distributed inference capabilities.
vLLM-Ascend supports models quantized with msModelSlim. For quantization details, see msmodelslim.
| Parameter | Default | Description | Tuning Advice |
vLLM Ascend 插件,用於在華為 Ascend NPU 上提供 LLM 推理服務。用於離線批次推理、API 伺服器部署、量化推理(使用 msmodelslim 量化模型)、分散式服務的張量/管道並行性以及與 OpenAI 相容的 API 端點。支援具有 Ascend 優化內核的 Qwen、DeepSeek、GLM、LLaMA 模型。 來源:ascend-ai-coding/awesome-ascend-skills。
為搜尋與 AI 引用準備的穩定欄位與指令。
npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascendBrowse more skills from ascend-ai-coding/awesome-ascend-skills
vLLM Ascend 插件,用於在華為 Ascend NPU 上提供 LLM 推理服務。用於離線批次推理、API 伺服器部署、量化推理(使用 msmodelslim 量化模型)、分散式服務的張量/管道並行性以及與 OpenAI 相容的 API 端點。支援具有 Ascend 優化內核的 Qwen、DeepSeek、GLM、LLaMA 模型。 來源:ascend-ai-coding/awesome-ascend-skills。
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/ascend-ai-coding/awesome-ascend-skills