·vllm-studio-backend
</>

vllm-studio-backend

Úselo cuando trabaje en la arquitectura backend de vLLM Studio (tiempo de ejecución del controlador, bucle del agente Pi-mono, puntos finales compatibles con OpenAI, puerta de enlace LiteLLM, proceso de inferencia y comandos de depuración).

8Instalaciones·0Tendencia·@0xsero

Instalación

$npx skills add https://github.com/0xsero/vllm-studio --skill vllm-studio-backend

Cómo instalar vllm-studio-backend

Instala rápidamente el skill de IA vllm-studio-backend en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/0xsero/vllm-studio --skill vllm-studio-backend
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: 0xsero/vllm-studio.

SKILL.md

Ver original

Overview This skill explains how the backend is wired: controller runtime, OpenAI-compatible proxy, Pi-mono agent loop, LiteLLM gateway, and inference process management.

Úselo cuando trabaje en la arquitectura backend de vLLM Studio (tiempo de ejecución del controlador, bucle del agente Pi-mono, puntos finales compatibles con OpenAI, puerta de enlace LiteLLM, proceso de inferencia y comandos de depuración). Fuente: 0xsero/vllm-studio.

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/0xsero/vllm-studio --skill vllm-studio-backend Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Certificado de seguridad para código seguro y confiable Instalación con un clic y configuración simplificada Compatible con Claude Code, Cursor, OpenClaw y más

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/0xsero/vllm-studio --skill vllm-studio-backend
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-21
Actualizado
2026-03-11

Browse more skills from 0xsero/vllm-studio

Respuestas rápidas

¿Qué es vllm-studio-backend?

Úselo cuando trabaje en la arquitectura backend de vLLM Studio (tiempo de ejecución del controlador, bucle del agente Pi-mono, puntos finales compatibles con OpenAI, puerta de enlace LiteLLM, proceso de inferencia y comandos de depuración). Fuente: 0xsero/vllm-studio.

¿Cómo instalo vllm-studio-backend?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/0xsero/vllm-studio --skill vllm-studio-backend Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/0xsero/vllm-studio

Detalles

Categoría
</>Desarrollo
Fuente
skills.sh
Primera vez visto
2026-02-21

Skills Relacionados