·vllm-deployment
</>

vllm-deployment

Implemente vLLM para inferencia LLM de alto rendimiento. Cubre implementaciones de CPU/GPU de Docker y aprovisionamiento de VM en la nube con puntos finales API compatibles con OpenAI.

4Instalaciones·0Tendencia·@stakpak

Instalación

$npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment

Cómo instalar vllm-deployment

Instala rápidamente el skill de IA vllm-deployment en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: stakpak/community-paks.

SKILL.md

Ver original

| CPU | 2x model size | 4x model size | | GPU | Model size + 2GB | Model size + 4GB VRAM |

| VLLMCPUKVCACHESPACE | KV cache size in GB (CPU) | 4 | | VLLMCPUOMPTHREADSBIND | CPU core binding (CPU) | 0-7 | | CUDAVISIBLEDEVICES | GPU device selection | 0,1 | | HFTOKEN | HuggingFace authentication | hfxxx |

| --shm-size=4g | Shared memory for IPC | | --cap-add SYSNICE | NUMA optimization (CPU) | | --security-opt seccomp=unconfined | Memory policy syscalls (CPU) | | --gpus all | GPU access | | -p 8000:8000 | Port mapping |

Implemente vLLM para inferencia LLM de alto rendimiento. Cubre implementaciones de CPU/GPU de Docker y aprovisionamiento de VM en la nube con puntos finales API compatibles con OpenAI. Fuente: stakpak/community-paks.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-26
Actualizado
2026-03-10

Browse more skills from stakpak/community-paks

Respuestas rápidas

¿Qué es vllm-deployment?

Implemente vLLM para inferencia LLM de alto rendimiento. Cubre implementaciones de CPU/GPU de Docker y aprovisionamiento de VM en la nube con puntos finales API compatibles con OpenAI. Fuente: stakpak/community-paks.

¿Cómo instalo vllm-deployment?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/stakpak/community-paks

Detalles

Categoría
</>Desarrollo
Fuente
skills.sh
Primera vez visto
2026-02-26