Overview This skill explains how the backend is wired: controller runtime, OpenAI-compatible proxy, Pi-mono agent loop, LiteLLM gateway, and inference process management.
Da utilizzare quando si lavora sull'architettura backend di vLLM Studio (runtime del controller, loop agente Pi-mono, endpoint compatibili con OpenAI, gateway LiteLLM, processo di inferenza e comandi di debug). Fonte: 0xsero/vllm-studio.
Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/0xsero/vllm-studio --skill vllm-studio-backend Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw
Certificata per la sicurezza, per codice affidabile Installazione con un clic e configurazione semplificata Compatibile con Claude Code, Cursor, OpenClaw e altri