·vllm-deploy-docker
</>

vllm-deploy-docker

Déployez vLLM à l'aide de Docker (images prédéfinies ou build à partir de la source) avec la prise en charge du GPU NVIDIA et exécutez le serveur compatible OpenAI.

0Installations·0Tendance·@vllm-project

Installation

$npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker

Comment installer vllm-deploy-docker

Installez rapidement le skill IA vllm-deploy-docker dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : vllm-project/vllm-skills.

A Claude skill describing how to deploy vLLM with Docker using the official pre-built images or building the image from source supporting NVIDIA GPUs with CUDA. Instructions include NVIDIA CUDA support, example docker run and a minimal docker-compose snippet, recommended flags, and troubleshooting notes. For AMD, Intel, or other accelerators, please refer to the vLLM documentation for alternative deployment methods.

Run a vLLM OpenAI-compatible server with GPU access, mounting the HF cache and forwarding port 8000:

Note: vLLM and this skill recommend using the latest Docker image (vllm/vllm-openai:latest). For legacy version images, you may refer to the Docker Hub image tags.

Déployez vLLM à l'aide de Docker (images prédéfinies ou build à partir de la source) avec la prise en charge du GPU NVIDIA et exécutez le serveur compatible OpenAI. Source : vllm-project/vllm-skills.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker
Catégorie
</>Développement
Vérifié
Première apparition
2026-03-12
Mis à jour
2026-03-13

Browse more skills from vllm-project/vllm-skills

Réponses rapides

Qu'est-ce que vllm-deploy-docker ?

Déployez vLLM à l'aide de Docker (images prédéfinies ou build à partir de la source) avec la prise en charge du GPU NVIDIA et exécutez le serveur compatible OpenAI. Source : vllm-project/vllm-skills.

Comment installer vllm-deploy-docker ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/vllm-project/vllm-skills

Détails

Catégorie
</>Développement
Source
user
Première apparition
2026-03-12