Overview This skill explains how the backend is wired: controller runtime, OpenAI-compatible proxy, Pi-mono agent loop, LiteLLM gateway, and inference process management.
Используйте при работе с серверной архитектурой vLLM Studio (среда выполнения контроллера, цикл агента Pi-mono, конечные точки, совместимые с OpenAI, шлюз LiteLLM, процесс вывода и команды отладки). Источник: 0xsero/vllm-studio.
Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/0xsero/vllm-studio --skill vllm-studio-backend После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw
Сертификация безопасности для надёжного и безопасного кода Установка в один клик с упрощённой настройкой Совместимо с Claude Code, Cursor, OpenClaw и другими