vllm-deployment とは?
高性能 LLM 推論のために vLLM を展開します。 Docker CPU/GPU のデプロイメントと、OpenAI 互換の API エンドポイントを使用したクラウド VM プロビジョニングをカバーします。 ソース: stakpak/community-paks。
高性能 LLM 推論のために vLLM を展開します。 Docker CPU/GPU のデプロイメントと、OpenAI 互換の API エンドポイントを使用したクラウド VM プロビジョニングをカバーします。
コマンドラインで vllm-deployment AI スキルを開発環境にすばやくインストール
ソース: stakpak/community-paks。
| CPU | 2x model size | 4x model size | | GPU | Model size + 2GB | Model size + 4GB VRAM |
| VLLMCPUKVCACHESPACE | KV cache size in GB (CPU) | 4 | | VLLMCPUOMPTHREADSBIND | CPU core binding (CPU) | 0-7 | | CUDAVISIBLEDEVICES | GPU device selection | 0,1 | | HFTOKEN | HuggingFace authentication | hfxxx |
| --shm-size=4g | Shared memory for IPC | | --cap-add SYSNICE | NUMA optimization (CPU) | | --security-opt seccomp=unconfined | Memory policy syscalls (CPU) | | --gpus all | GPU access | | -p 8000:8000 | Port mapping |
高性能 LLM 推論のために vLLM を展開します。 Docker CPU/GPU のデプロイメントと、OpenAI 互換の API エンドポイントを使用したクラウド VM プロビジョニングをカバーします。 ソース: stakpak/community-paks。
AI/検索での引用用の安定したフィールドとコマンド。
npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment高性能 LLM 推論のために vLLM を展開します。 Docker CPU/GPU のデプロイメントと、OpenAI 互換の API エンドポイントを使用したクラウド VM プロビジョニングをカバーします。 ソース: stakpak/community-paks。
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります
https://github.com/stakpak/community-paks