vllm-deploy-docker とは?
NVIDIA GPU サポートを備えた Docker (ビルド済みイメージまたはソースからのビルド) を使用して vLLM をデプロイし、OpenAI 互換サーバーを実行します。 ソース: vllm-project/vllm-skills。
NVIDIA GPU サポートを備えた Docker (ビルド済みイメージまたはソースからのビルド) を使用して vLLM をデプロイし、OpenAI 互換サーバーを実行します。
コマンドラインで vllm-deploy-docker AI スキルを開発環境にすばやくインストール
ソース: vllm-project/vllm-skills。
A Claude skill describing how to deploy vLLM with Docker using the official pre-built images or building the image from source supporting NVIDIA GPUs with CUDA. Instructions include NVIDIA CUDA support, example docker run and a minimal docker-compose snippet, recommended flags, and troubleshooting notes. For AMD, Intel, or other accelerators, please refer to the vLLM documentation for alternative deployment methods.
Run a vLLM OpenAI-compatible server with GPU access, mounting the HF cache and forwarding port 8000:
Note: vLLM and this skill recommend using the latest Docker image (vllm/vllm-openai:latest). For legacy version images, you may refer to the Docker Hub image tags.
NVIDIA GPU サポートを備えた Docker (ビルド済みイメージまたはソースからのビルド) を使用して vLLM をデプロイし、OpenAI 互換サーバーを実行します。 ソース: vllm-project/vllm-skills。
AI/検索での引用用の安定したフィールドとコマンド。
npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-dockerNVIDIA GPU サポートを備えた Docker (ビルド済みイメージまたはソースからのビルド) を使用して vLLM をデプロイし、OpenAI 互換サーバーを実行します。 ソース: vllm-project/vllm-skills。
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります
https://github.com/vllm-project/vllm-skills