Что такое vllm-deploy-docker?
Разверните vLLM с помощью Docker (предварительно созданные образы или сборку из исходного кода) с поддержкой графического процессора NVIDIA и запустите сервер, совместимый с OpenAI. Источник: vllm-project/vllm-skills.
Разверните vLLM с помощью Docker (предварительно созданные образы или сборку из исходного кода) с поддержкой графического процессора NVIDIA и запустите сервер, совместимый с OpenAI.
Быстро установите AI-навык vllm-deploy-docker в вашу среду разработки через командную строку
Источник: vllm-project/vllm-skills.
A Claude skill describing how to deploy vLLM with Docker using the official pre-built images or building the image from source supporting NVIDIA GPUs with CUDA. Instructions include NVIDIA CUDA support, example docker run and a minimal docker-compose snippet, recommended flags, and troubleshooting notes. For AMD, Intel, or other accelerators, please refer to the vLLM documentation for alternative deployment methods.
Run a vLLM OpenAI-compatible server with GPU access, mounting the HF cache and forwarding port 8000:
Note: vLLM and this skill recommend using the latest Docker image (vllm/vllm-openai:latest). For legacy version images, you may refer to the Docker Hub image tags.
Разверните vLLM с помощью Docker (предварительно созданные образы или сборку из исходного кода) с поддержкой графического процессора NVIDIA и запустите сервер, совместимый с OpenAI. Источник: vllm-project/vllm-skills.
Стабильные поля и команды для ссылок в AI/поиске.
npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-dockerРазверните vLLM с помощью Docker (предварительно созданные образы или сборку из исходного кода) с поддержкой графического процессора NVIDIA и запустите сервер, совместимый с OpenAI. Источник: vllm-project/vllm-skills.
Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw
https://github.com/vllm-project/vllm-skills