·vllm-deploy-docker
</>

vllm-deploy-docker

Stellen Sie vLLM mit Docker (vorgefertigte Images oder Build-from-Source) mit NVIDIA-GPU-Unterstützung bereit und führen Sie den OpenAI-kompatiblen Server aus.

0Installationen·0Trend·@vllm-project

Installation

$npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker

So installieren Sie vllm-deploy-docker

Installieren Sie den KI-Skill vllm-deploy-docker schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: vllm-project/vllm-skills.

A Claude skill describing how to deploy vLLM with Docker using the official pre-built images or building the image from source supporting NVIDIA GPUs with CUDA. Instructions include NVIDIA CUDA support, example docker run and a minimal docker-compose snippet, recommended flags, and troubleshooting notes. For AMD, Intel, or other accelerators, please refer to the vLLM documentation for alternative deployment methods.

Run a vLLM OpenAI-compatible server with GPU access, mounting the HF cache and forwarding port 8000:

Note: vLLM and this skill recommend using the latest Docker image (vllm/vllm-openai:latest). For legacy version images, you may refer to the Docker Hub image tags.

Stellen Sie vLLM mit Docker (vorgefertigte Images oder Build-from-Source) mit NVIDIA-GPU-Unterstützung bereit und führen Sie den OpenAI-kompatiblen Server aus. Quelle: vllm-project/vllm-skills.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-03-12
Aktualisiert
2026-03-13

Browse more skills from vllm-project/vllm-skills

Schnelle Antworten

Was ist vllm-deploy-docker?

Stellen Sie vLLM mit Docker (vorgefertigte Images oder Build-from-Source) mit NVIDIA-GPU-Unterstützung bereit und führen Sie den OpenAI-kompatiblen Server aus. Quelle: vllm-project/vllm-skills.

Wie installiere ich vllm-deploy-docker?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/vllm-project/vllm-skills

Details

Kategorie
</>Entwicklung
Quelle
user
Erstes Auftreten
2026-03-12