·vllm-deployment
</>

vllm-deployment

Stellen Sie vLLM für leistungsstarke LLM-Inferenz bereit. Deckt Docker-CPU/GPU-Bereitstellungen und Cloud-VM-Bereitstellung mit OpenAI-kompatiblen API-Endpunkten ab.

4Installationen·0Trend·@stakpak

Installation

$npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment

So installieren Sie vllm-deployment

Installieren Sie den KI-Skill vllm-deployment schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: stakpak/community-paks.

| CPU | 2x model size | 4x model size | | GPU | Model size + 2GB | Model size + 4GB VRAM |

| VLLMCPUKVCACHESPACE | KV cache size in GB (CPU) | 4 | | VLLMCPUOMPTHREADSBIND | CPU core binding (CPU) | 0-7 | | CUDAVISIBLEDEVICES | GPU device selection | 0,1 | | HFTOKEN | HuggingFace authentication | hfxxx |

| --shm-size=4g | Shared memory for IPC | | --cap-add SYSNICE | NUMA optimization (CPU) | | --security-opt seccomp=unconfined | Memory policy syscalls (CPU) | | --gpus all | GPU access | | -p 8000:8000 | Port mapping |

Stellen Sie vLLM für leistungsstarke LLM-Inferenz bereit. Deckt Docker-CPU/GPU-Bereitstellungen und Cloud-VM-Bereitstellung mit OpenAI-kompatiblen API-Endpunkten ab. Quelle: stakpak/community-paks.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-26
Aktualisiert
2026-03-11

Browse more skills from stakpak/community-paks

Schnelle Antworten

Was ist vllm-deployment?

Stellen Sie vLLM für leistungsstarke LLM-Inferenz bereit. Deckt Docker-CPU/GPU-Bereitstellungen und Cloud-VM-Bereitstellung mit OpenAI-kompatiblen API-Endpunkten ab. Quelle: stakpak/community-paks.

Wie installiere ich vllm-deployment?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/stakpak/community-paks

Details

Kategorie
</>Entwicklung
Quelle
skills.sh
Erstes Auftreten
2026-02-26