什麼是 vllm-deploy-docker?
使用具有 NVIDIA GPU 支援的 Docker(預先建置映像或從原始程式碼建置)部署 vLLM,並執行 OpenAI 相容伺服器。 來源:vllm-project/vllm-skills。
使用具有 NVIDIA GPU 支援的 Docker(預先建置映像或從原始程式碼建置)部署 vLLM,並執行 OpenAI 相容伺服器。
透過命令列快速安裝 vllm-deploy-docker AI 技能到你的開發環境
來源:vllm-project/vllm-skills。
A Claude skill describing how to deploy vLLM with Docker using the official pre-built images or building the image from source supporting NVIDIA GPUs with CUDA. Instructions include NVIDIA CUDA support, example docker run and a minimal docker-compose snippet, recommended flags, and troubleshooting notes. For AMD, Intel, or other accelerators, please refer to the vLLM documentation for alternative deployment methods.
Run a vLLM OpenAI-compatible server with GPU access, mounting the HF cache and forwarding port 8000:
Note: vLLM and this skill recommend using the latest Docker image (vllm/vllm-openai:latest). For legacy version images, you may refer to the Docker Hub image tags.
使用具有 NVIDIA GPU 支援的 Docker(預先建置映像或從原始程式碼建置)部署 vLLM,並執行 OpenAI 相容伺服器。 來源:vllm-project/vllm-skills。
為搜尋與 AI 引用準備的穩定欄位與指令。
npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker使用具有 NVIDIA GPU 支援的 Docker(預先建置映像或從原始程式碼建置)部署 vLLM,並執行 OpenAI 相容伺服器。 來源:vllm-project/vllm-skills。
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/vllm-project/vllm-skills