·vllm-deployment
</>

vllm-deployment

部署 vLLM 以實現高效能 LLM 推理。涵蓋 Docker CPU/GPU 部署以及使用相容 OpenAI 的 API 端點進行雲端虛擬機器配置。

4安裝·0熱度·@stakpak

安裝

$npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment

如何安裝 vllm-deployment

透過命令列快速安裝 vllm-deployment AI 技能到你的開發環境

  1. 開啟終端機: 開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等)
  2. 執行安裝指令: 複製並執行以下指令:npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment
  3. 驗證安裝: 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用

來源:stakpak/community-paks。

SKILL.md

查看原文

| CPU | 2x model size | 4x model size | | GPU | Model size + 2GB | Model size + 4GB VRAM |

| VLLMCPUKVCACHESPACE | KV cache size in GB (CPU) | 4 | | VLLMCPUOMPTHREADSBIND | CPU core binding (CPU) | 0-7 | | CUDAVISIBLEDEVICES | GPU device selection | 0,1 | | HFTOKEN | HuggingFace authentication | hfxxx |

| --shm-size=4g | Shared memory for IPC | | --cap-add SYSNICE | NUMA optimization (CPU) | | --security-opt seccomp=unconfined | Memory policy syscalls (CPU) | | --gpus all | GPU access | | -p 8000:8000 | Port mapping |

部署 vLLM 以實現高效能 LLM 推理。涵蓋 Docker CPU/GPU 部署以及使用相容 OpenAI 的 API 端點進行雲端虛擬機器配置。 來源:stakpak/community-paks。

可引用資訊

為搜尋與 AI 引用準備的穩定欄位與指令。

安裝指令
npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment
分類
</>開發工具
認證
收錄時間
2026-02-26
更新時間
2026-03-11

Browse more skills from stakpak/community-paks

快速解答

什麼是 vllm-deployment?

部署 vLLM 以實現高效能 LLM 推理。涵蓋 Docker CPU/GPU 部署以及使用相容 OpenAI 的 API 端點進行雲端虛擬機器配置。 來源:stakpak/community-paks。

如何安裝 vllm-deployment?

開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用

這個 Skill 的原始碼在哪?

https://github.com/stakpak/community-paks

詳情

分類
</>開發工具
來源
skills.sh
收錄時間
2026-02-26