·vllm-deploy-simple
</>

vllm-deploy-simple

Installez et déployez rapidement vLLM, commencez à servir avec un simple LLM et testez l'API OpenAI.

4Installations·0Tendance·@vllm-project

Installation

$npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-simple

Comment installer vllm-deploy-simple

Installez rapidement le skill IA vllm-deploy-simple dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-simple
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : vllm-project/vllm-skills.

A simple skill to quickly install vLLM, start a server, and validate the OpenAI-compatible API.

If user did not specify the venv path or asked to deploy in the current environment, create a venv using uv with python 3.12 in the current folder. If uv not found, make a folder in this path and use python to create a virtual environment.

If user did not specify the venv path, model, or port, use default options:

Installez et déployez rapidement vLLM, commencez à servir avec un simple LLM et testez l'API OpenAI. Source : vllm-project/vllm-skills.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-simple
Catégorie
</>Développement
Vérifié
Première apparition
2026-03-13
Mis à jour
2026-03-13

Browse more skills from vllm-project/vllm-skills

Réponses rapides

Qu'est-ce que vllm-deploy-simple ?

Installez et déployez rapidement vLLM, commencez à servir avec un simple LLM et testez l'API OpenAI. Source : vllm-project/vllm-skills.

Comment installer vllm-deploy-simple ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-simple Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/vllm-project/vllm-skills

Détails

Catégorie
</>Développement
Source
skills.sh
Première apparition
2026-03-13