·vllm-studio-backend
</>

vllm-studio-backend

À utiliser lorsque vous travaillez sur l'architecture backend de vLLM Studio (environnement d'exécution du contrôleur, boucle d'agent Pi-mono, points de terminaison compatibles OpenAI, passerelle LiteLLM, processus d'inférence et commandes de débogage).

8Installations·0Tendance·@0xsero

Installation

$npx skills add https://github.com/0xsero/vllm-studio --skill vllm-studio-backend

Comment installer vllm-studio-backend

Installez rapidement le skill IA vllm-studio-backend dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/0xsero/vllm-studio --skill vllm-studio-backend
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : 0xsero/vllm-studio.

Overview This skill explains how the backend is wired: controller runtime, OpenAI-compatible proxy, Pi-mono agent loop, LiteLLM gateway, and inference process management.

À utiliser lorsque vous travaillez sur l'architecture backend de vLLM Studio (environnement d'exécution du contrôleur, boucle d'agent Pi-mono, points de terminaison compatibles OpenAI, passerelle LiteLLM, processus d'inférence et commandes de débogage). Source : 0xsero/vllm-studio.

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/0xsero/vllm-studio --skill vllm-studio-backend Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Certifié sécurisé pour un code sûr et fiable Installation en un clic et configuration simplifiée Compatible avec Claude Code, Cursor, OpenClaw et plus

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/0xsero/vllm-studio --skill vllm-studio-backend
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-21
Mis à jour
2026-03-11

Browse more skills from 0xsero/vllm-studio

Réponses rapides

Qu'est-ce que vllm-studio-backend ?

À utiliser lorsque vous travaillez sur l'architecture backend de vLLM Studio (environnement d'exécution du contrôleur, boucle d'agent Pi-mono, points de terminaison compatibles OpenAI, passerelle LiteLLM, processus d'inférence et commandes de débogage). Source : 0xsero/vllm-studio.

Comment installer vllm-studio-backend ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/0xsero/vllm-studio --skill vllm-studio-backend Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/0xsero/vllm-studio

Détails

Catégorie
</>Développement
Source
skills.sh
Première apparition
2026-02-21