什么是 vllm-ascend?
vLLM Ascend 插件,用于在华为 Ascend NPU 上提供 LLM 推理服务。用于离线批量推理、API 服务器部署、量化推理(使用 msmodelslim 量化模型)、分布式服务的张量/管道并行性以及与 OpenAI 兼容的 API 端点。支持具有 Ascend 优化内核的 Qwen、DeepSeek、GLM、LLaMA 模型。 来源:ascend-ai-coding/awesome-ascend-skills。
vLLM Ascend 插件,用于在华为 Ascend NPU 上提供 LLM 推理服务。用于离线批量推理、API 服务器部署、量化推理(使用 msmodelslim 量化模型)、分布式服务的张量/管道并行性以及与 OpenAI 兼容的 API 端点。支持具有 Ascend 优化内核的 Qwen、DeepSeek、GLM、LLaMA 模型。
通过命令行快速安装 vllm-ascend AI 技能到你的开发环境
来源:ascend-ai-coding/awesome-ascend-skills。
vLLM-Ascend is a plugin for vLLM that enables efficient LLM inference on Huawei Ascend AI processors. It provides Ascend-optimized kernels, quantization support, and distributed inference capabilities.
vLLM-Ascend supports models quantized with msModelSlim. For quantization details, see msmodelslim.
| Parameter | Default | Description | Tuning Advice |
vLLM Ascend 插件,用于在华为 Ascend NPU 上提供 LLM 推理服务。用于离线批量推理、API 服务器部署、量化推理(使用 msmodelslim 量化模型)、分布式服务的张量/管道并行性以及与 OpenAI 兼容的 API 端点。支持具有 Ascend 优化内核的 Qwen、DeepSeek、GLM、LLaMA 模型。 来源:ascend-ai-coding/awesome-ascend-skills。
为搜索与 AI 引用准备的稳定字段与命令。
npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascendBrowse more skills from ascend-ai-coding/awesome-ascend-skills
vLLM Ascend 插件,用于在华为 Ascend NPU 上提供 LLM 推理服务。用于离线批量推理、API 服务器部署、量化推理(使用 msmodelslim 量化模型)、分布式服务的张量/管道并行性以及与 OpenAI 兼容的 API 端点。支持具有 Ascend 优化内核的 Qwen、DeepSeek、GLM、LLaMA 模型。 来源:ascend-ai-coding/awesome-ascend-skills。
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/ascend-ai-coding/awesome-ascend-skills