Overview This skill explains how the backend is wired: controller runtime, OpenAI-compatible proxy, Pi-mono agent loop, LiteLLM gateway, and inference process management.
À utiliser lorsque vous travaillez sur l'architecture backend de vLLM Studio (environnement d'exécution du contrôleur, boucle d'agent Pi-mono, points de terminaison compatibles OpenAI, passerelle LiteLLM, processus d'inférence et commandes de débogage). Source : 0xsero/vllm-studio.
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/0xsero/vllm-studio --skill vllm-studio-backend Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw
Certifié sécurisé pour un code sûr et fiable Installation en un clic et configuration simplifiée Compatible avec Claude Code, Cursor, OpenClaw et plus