·serving-llms-vllm
</>

serving-llms-vllm

Brinda servicios a LLM con alto rendimiento utilizando PagedAttention de vLLM y procesamiento por lotes continuo. Úselo al implementar API LLM de producción, optimizar la latencia/rendimiento de inferencia o servir modelos con memoria de GPU limitada. Admite puntos finales compatibles con OpenAI, cuantificación (GPTQ/AWQ/FP8) y paralelismo tensorial.

27Instalaciones·0Tendencia·@ovachiever

Instalación

$npx skills add https://github.com/ovachiever/droid-tings --skill serving-llms-vllm

Cómo instalar serving-llms-vllm

Instala rápidamente el skill de IA serving-llms-vllm en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/ovachiever/droid-tings --skill serving-llms-vllm
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: ovachiever/droid-tings.

SKILL.md

Ver original

vLLM achieves 24x higher throughput than standard transformers through PagedAttention (block-based KV cache) and continuous batching (mixing prefill/decode requests).

Server deployment patterns: See references/server-deployment.md for Docker, Kubernetes, and load balancing configurations.

Performance optimization: See references/optimization.md for PagedAttention tuning, continuous batching details, and benchmark results.

Brinda servicios a LLM con alto rendimiento utilizando PagedAttention de vLLM y procesamiento por lotes continuo. Úselo al implementar API LLM de producción, optimizar la latencia/rendimiento de inferencia o servir modelos con memoria de GPU limitada. Admite puntos finales compatibles con OpenAI, cuantificación (GPTQ/AWQ/FP8) y paralelismo tensorial. Fuente: ovachiever/droid-tings.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/ovachiever/droid-tings --skill serving-llms-vllm
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-03-03
Actualizado
2026-03-10

Browse more skills from ovachiever/droid-tings

Respuestas rápidas

¿Qué es serving-llms-vllm?

Brinda servicios a LLM con alto rendimiento utilizando PagedAttention de vLLM y procesamiento por lotes continuo. Úselo al implementar API LLM de producción, optimizar la latencia/rendimiento de inferencia o servir modelos con memoria de GPU limitada. Admite puntos finales compatibles con OpenAI, cuantificación (GPTQ/AWQ/FP8) y paralelismo tensorial. Fuente: ovachiever/droid-tings.

¿Cómo instalo serving-llms-vllm?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/ovachiever/droid-tings --skill serving-llms-vllm Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/ovachiever/droid-tings