·vllm-deploy-docker
</>

vllm-deploy-docker

使用具有 NVIDIA GPU 支持的 Docker(预构建映像或从源代码构建)部署 vLLM,并运行 OpenAI 兼容服务器。

0安装·0热度·@vllm-project

安装

$npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker

如何安装 vllm-deploy-docker

通过命令行快速安装 vllm-deploy-docker AI 技能到你的开发环境

  1. 打开终端: 打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等)
  2. 运行安装命令: 复制并运行以下命令:npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker
  3. 验证安装: 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用

来源:vllm-project/vllm-skills。

SKILL.md

查看原文

A Claude skill describing how to deploy vLLM with Docker using the official pre-built images or building the image from source supporting NVIDIA GPUs with CUDA. Instructions include NVIDIA CUDA support, example docker run and a minimal docker-compose snippet, recommended flags, and troubleshooting notes. For AMD, Intel, or other accelerators, please refer to the vLLM documentation for alternative deployment methods.

Run a vLLM OpenAI-compatible server with GPU access, mounting the HF cache and forwarding port 8000:

Note: vLLM and this skill recommend using the latest Docker image (vllm/vllm-openai:latest). For legacy version images, you may refer to the Docker Hub image tags.

使用具有 NVIDIA GPU 支持的 Docker(预构建映像或从源代码构建)部署 vLLM,并运行 OpenAI 兼容服务器。 来源:vllm-project/vllm-skills。

可引用信息

为搜索与 AI 引用准备的稳定字段与命令。

安装命令
npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker
分类
</>开发工具
认证
收录时间
2026-03-12
更新时间
2026-03-13

Browse more skills from vllm-project/vllm-skills

快速解答

什么是 vllm-deploy-docker?

使用具有 NVIDIA GPU 支持的 Docker(预构建映像或从源代码构建)部署 vLLM,并运行 OpenAI 兼容服务器。 来源:vllm-project/vllm-skills。

如何安装 vllm-deploy-docker?

打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用

这个 Skill 的源码在哪?

https://github.com/vllm-project/vllm-skills

详情

分类
</>开发工具
来源
user
收录时间
2026-03-12