vllm-deploy-docker이란?
NVIDIA GPU를 지원하는 Docker(사전 빌드된 이미지 또는 소스에서 빌드)를 사용하여 vLLM을 배포하고 OpenAI 호환 서버를 실행하세요. 출처: vllm-project/vllm-skills.
NVIDIA GPU를 지원하는 Docker(사전 빌드된 이미지 또는 소스에서 빌드)를 사용하여 vLLM을 배포하고 OpenAI 호환 서버를 실행하세요.
명령줄에서 vllm-deploy-docker AI 스킬을 개발 환경에 빠르게 설치
출처: vllm-project/vllm-skills.
A Claude skill describing how to deploy vLLM with Docker using the official pre-built images or building the image from source supporting NVIDIA GPUs with CUDA. Instructions include NVIDIA CUDA support, example docker run and a minimal docker-compose snippet, recommended flags, and troubleshooting notes. For AMD, Intel, or other accelerators, please refer to the vLLM documentation for alternative deployment methods.
Run a vLLM OpenAI-compatible server with GPU access, mounting the HF cache and forwarding port 8000:
Note: vLLM and this skill recommend using the latest Docker image (vllm/vllm-openai:latest). For legacy version images, you may refer to the Docker Hub image tags.
NVIDIA GPU를 지원하는 Docker(사전 빌드된 이미지 또는 소스에서 빌드)를 사용하여 vLLM을 배포하고 OpenAI 호환 서버를 실행하세요. 출처: vllm-project/vllm-skills.
AI/검색 인용용 안정적인 필드와 명령어.
npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-dockerNVIDIA GPU를 지원하는 Docker(사전 빌드된 이미지 또는 소스에서 빌드)를 사용하여 vLLM을 배포하고 OpenAI 호환 서버를 실행하세요. 출처: vllm-project/vllm-skills.
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다
https://github.com/vllm-project/vllm-skills