·vllm-deployment
</>

vllm-deployment

Distribuisci vLLM per l'inferenza LLM ad alte prestazioni. Copre le distribuzioni di CPU/GPU Docker e il provisioning di VM cloud con endpoint API compatibili con OpenAI.

4Installazioni·0Tendenza·@stakpak

Installazione

$npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment

Come installare vllm-deployment

Installa rapidamente la skill AI vllm-deployment nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: stakpak/community-paks.

| CPU | 2x model size | 4x model size | | GPU | Model size + 2GB | Model size + 4GB VRAM |

| VLLMCPUKVCACHESPACE | KV cache size in GB (CPU) | 4 | | VLLMCPUOMPTHREADSBIND | CPU core binding (CPU) | 0-7 | | CUDAVISIBLEDEVICES | GPU device selection | 0,1 | | HFTOKEN | HuggingFace authentication | hfxxx |

| --shm-size=4g | Shared memory for IPC | | --cap-add SYSNICE | NUMA optimization (CPU) | | --security-opt seccomp=unconfined | Memory policy syscalls (CPU) | | --gpus all | GPU access | | -p 8000:8000 | Port mapping |

Distribuisci vLLM per l'inferenza LLM ad alte prestazioni. Copre le distribuzioni di CPU/GPU Docker e il provisioning di VM cloud con endpoint API compatibili con OpenAI. Fonte: stakpak/community-paks.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-26
Aggiornato
2026-03-10

Browse more skills from stakpak/community-paks

Risposte rapide

Che cos'è vllm-deployment?

Distribuisci vLLM per l'inferenza LLM ad alte prestazioni. Copre le distribuzioni di CPU/GPU Docker e il provisioning di VM cloud con endpoint API compatibili con OpenAI. Fonte: stakpak/community-paks.

Come installo vllm-deployment?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/stakpak/community-paks

Dettagli

Categoria
</>Sviluppo
Fonte
skills.sh
Prima apparizione
2026-02-26