·vllm-deploy-docker
</>

vllm-deploy-docker

Distribuisci vLLM utilizzando Docker (immagini predefinite o build from source) con supporto GPU NVIDIA ed esegui il server compatibile con OpenAI.

0Installazioni·0Tendenza·@vllm-project

Installazione

$npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker

Come installare vllm-deploy-docker

Installa rapidamente la skill AI vllm-deploy-docker nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: vllm-project/vllm-skills.

A Claude skill describing how to deploy vLLM with Docker using the official pre-built images or building the image from source supporting NVIDIA GPUs with CUDA. Instructions include NVIDIA CUDA support, example docker run and a minimal docker-compose snippet, recommended flags, and troubleshooting notes. For AMD, Intel, or other accelerators, please refer to the vLLM documentation for alternative deployment methods.

Run a vLLM OpenAI-compatible server with GPU access, mounting the HF cache and forwarding port 8000:

Note: vLLM and this skill recommend using the latest Docker image (vllm/vllm-openai:latest). For legacy version images, you may refer to the Docker Hub image tags.

Distribuisci vLLM utilizzando Docker (immagini predefinite o build from source) con supporto GPU NVIDIA ed esegui il server compatibile con OpenAI. Fonte: vllm-project/vllm-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-03-12
Aggiornato
2026-03-13

Browse more skills from vllm-project/vllm-skills

Risposte rapide

Che cos'è vllm-deploy-docker?

Distribuisci vLLM utilizzando Docker (immagini predefinite o build from source) con supporto GPU NVIDIA ed esegui il server compatibile con OpenAI. Fonte: vllm-project/vllm-skills.

Come installo vllm-deploy-docker?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/vllm-project/vllm-skills

Dettagli

Categoria
</>Sviluppo
Fonte
user
Prima apparizione
2026-03-12