Qu'est-ce que vllm-deploy-simple ?
Installez et déployez rapidement vLLM, commencez à servir avec un simple LLM et testez l'API OpenAI. Source : vllm-project/vllm-skills.
Installez et déployez rapidement vLLM, commencez à servir avec un simple LLM et testez l'API OpenAI.
Installez rapidement le skill IA vllm-deploy-simple dans votre environnement de développement via la ligne de commande
Source : vllm-project/vllm-skills.
A simple skill to quickly install vLLM, start a server, and validate the OpenAI-compatible API.
If user did not specify the venv path or asked to deploy in the current environment, create a venv using uv with python 3.12 in the current folder. If uv not found, make a folder in this path and use python to create a virtual environment.
If user did not specify the venv path, model, or port, use default options:
Installez et déployez rapidement vLLM, commencez à servir avec un simple LLM et testez l'API OpenAI. Source : vllm-project/vllm-skills.
Champs et commandes stables pour les citations IA/recherche.
npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-simpleInstallez et déployez rapidement vLLM, commencez à servir avec un simple LLM et testez l'API OpenAI. Source : vllm-project/vllm-skills.
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-simple Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw
https://github.com/vllm-project/vllm-skills