·vllm-deployment
</>

vllm-deployment

Déployez vLLM pour une inférence LLM hautes performances. Couvre les déploiements de CPU/GPU Docker et le provisionnement de machines virtuelles cloud avec des points de terminaison d'API compatibles OpenAI.

4Installations·0Tendance·@stakpak

Installation

$npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment

Comment installer vllm-deployment

Installez rapidement le skill IA vllm-deployment dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : stakpak/community-paks.

| CPU | 2x model size | 4x model size | | GPU | Model size + 2GB | Model size + 4GB VRAM |

| VLLMCPUKVCACHESPACE | KV cache size in GB (CPU) | 4 | | VLLMCPUOMPTHREADSBIND | CPU core binding (CPU) | 0-7 | | CUDAVISIBLEDEVICES | GPU device selection | 0,1 | | HFTOKEN | HuggingFace authentication | hfxxx |

| --shm-size=4g | Shared memory for IPC | | --cap-add SYSNICE | NUMA optimization (CPU) | | --security-opt seccomp=unconfined | Memory policy syscalls (CPU) | | --gpus all | GPU access | | -p 8000:8000 | Port mapping |

Déployez vLLM pour une inférence LLM hautes performances. Couvre les déploiements de CPU/GPU Docker et le provisionnement de machines virtuelles cloud avec des points de terminaison d'API compatibles OpenAI. Source : stakpak/community-paks.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-26
Mis à jour
2026-03-10

Browse more skills from stakpak/community-paks

Réponses rapides

Qu'est-ce que vllm-deployment ?

Déployez vLLM pour une inférence LLM hautes performances. Couvre les déploiements de CPU/GPU Docker et le provisionnement de machines virtuelles cloud avec des points de terminaison d'API compatibles OpenAI. Source : stakpak/community-paks.

Comment installer vllm-deployment ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/stakpak/community-paks

Détails

Catégorie
</>Développement
Source
skills.sh
Première apparition
2026-02-26