·vllm-deploy-docker
</>

vllm-deploy-docker

Implemente vLLM usando Docker (imágenes prediseñadas o compilación desde el código fuente) con soporte para GPU NVIDIA y ejecute el servidor compatible con OpenAI.

0Instalaciones·0Tendencia·@vllm-project

Instalación

$npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker

Cómo instalar vllm-deploy-docker

Instala rápidamente el skill de IA vllm-deploy-docker en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: vllm-project/vllm-skills.

SKILL.md

Ver original

A Claude skill describing how to deploy vLLM with Docker using the official pre-built images or building the image from source supporting NVIDIA GPUs with CUDA. Instructions include NVIDIA CUDA support, example docker run and a minimal docker-compose snippet, recommended flags, and troubleshooting notes. For AMD, Intel, or other accelerators, please refer to the vLLM documentation for alternative deployment methods.

Run a vLLM OpenAI-compatible server with GPU access, mounting the HF cache and forwarding port 8000:

Note: vLLM and this skill recommend using the latest Docker image (vllm/vllm-openai:latest). For legacy version images, you may refer to the Docker Hub image tags.

Implemente vLLM usando Docker (imágenes prediseñadas o compilación desde el código fuente) con soporte para GPU NVIDIA y ejecute el servidor compatible con OpenAI. Fuente: vllm-project/vllm-skills.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-03-12
Actualizado
2026-03-13

Browse more skills from vllm-project/vllm-skills

Respuestas rápidas

¿Qué es vllm-deploy-docker?

Implemente vLLM usando Docker (imágenes prediseñadas o compilación desde el código fuente) con soporte para GPU NVIDIA y ejecute el servidor compatible con OpenAI. Fuente: vllm-project/vllm-skills.

¿Cómo instalo vllm-deploy-docker?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/vllm-project/vllm-skills

Detalles

Categoría
</>Desarrollo
Fuente
user
Primera vez visto
2026-03-12