·vllm-ascend
</>

vllm-ascend

Плагин vLLM Ascend для обработки выводов LLM на процессоре Huawei Ascend NPU. Используйте для автономного пакетного вывода, развертывания сервера API, вывода квантования (с квантованными моделями msmodelslim), тензорного/конвейерного параллелизма для распределенного обслуживания и конечных точек API, совместимых с OpenAI. Поддерживает модели Qwen, DeepSeek, GLM, LLaMA с ядрами, оптимизированными для Ascend.

15Установки·1Тренд·@ascend-ai-coding

Установка

$npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend

Как установить vllm-ascend

Быстро установите AI-навык vllm-ascend в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: ascend-ai-coding/awesome-ascend-skills.

vLLM-Ascend is a plugin for vLLM that enables efficient LLM inference on Huawei Ascend AI processors. It provides Ascend-optimized kernels, quantization support, and distributed inference capabilities.

vLLM-Ascend supports models quantized with msModelSlim. For quantization details, see msmodelslim.

| Parameter | Default | Description | Tuning Advice |

Плагин vLLM Ascend для обработки выводов LLM на процессоре Huawei Ascend NPU. Используйте для автономного пакетного вывода, развертывания сервера API, вывода квантования (с квантованными моделями msmodelslim), тензорного/конвейерного параллелизма для распределенного обслуживания и конечных точек API, совместимых с OpenAI. Поддерживает модели Qwen, DeepSeek, GLM, LLaMA с ядрами, оптимизированными для Ascend. Источник: ascend-ai-coding/awesome-ascend-skills.

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend
Категория
</>Разработка
Проверено
Впервые замечено
2026-03-09
Обновлено
2026-03-10

Browse more skills from ascend-ai-coding/awesome-ascend-skills

Короткие ответы

Что такое vllm-ascend?

Плагин vLLM Ascend для обработки выводов LLM на процессоре Huawei Ascend NPU. Используйте для автономного пакетного вывода, развертывания сервера API, вывода квантования (с квантованными моделями msmodelslim), тензорного/конвейерного параллелизма для распределенного обслуживания и конечных точек API, совместимых с OpenAI. Поддерживает модели Qwen, DeepSeek, GLM, LLaMA с ядрами, оптимизированными для Ascend. Источник: ascend-ai-coding/awesome-ascend-skills.

Как установить vllm-ascend?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/ascend-ai-coding/awesome-ascend-skills --skill vllm-ascend После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/ascend-ai-coding/awesome-ascend-skills

Детали

Категория
</>Разработка
Источник
skills.sh
Впервые замечено
2026-03-09