·vllm-deployment
</>

vllm-deployment

部署 vLLM 以实现高性能 LLM 推理。涵盖 Docker CPU/GPU 部署以及使用兼容 OpenAI 的 API 端点进行云虚拟机配置。

4安装·0热度·@stakpak

安装

$npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment

如何安装 vllm-deployment

通过命令行快速安装 vllm-deployment AI 技能到你的开发环境

  1. 打开终端: 打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等)
  2. 运行安装命令: 复制并运行以下命令:npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment
  3. 验证安装: 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用

来源:stakpak/community-paks。

SKILL.md

查看原文

| CPU | 2x model size | 4x model size | | GPU | Model size + 2GB | Model size + 4GB VRAM |

| VLLMCPUKVCACHESPACE | KV cache size in GB (CPU) | 4 | | VLLMCPUOMPTHREADSBIND | CPU core binding (CPU) | 0-7 | | CUDAVISIBLEDEVICES | GPU device selection | 0,1 | | HFTOKEN | HuggingFace authentication | hfxxx |

| --shm-size=4g | Shared memory for IPC | | --cap-add SYSNICE | NUMA optimization (CPU) | | --security-opt seccomp=unconfined | Memory policy syscalls (CPU) | | --gpus all | GPU access | | -p 8000:8000 | Port mapping |

部署 vLLM 以实现高性能 LLM 推理。涵盖 Docker CPU/GPU 部署以及使用兼容 OpenAI 的 API 端点进行云虚拟机配置。 来源:stakpak/community-paks。

可引用信息

为搜索与 AI 引用准备的稳定字段与命令。

安装命令
npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment
分类
</>开发工具
认证
收录时间
2026-02-26
更新时间
2026-03-10

Browse more skills from stakpak/community-paks

快速解答

什么是 vllm-deployment?

部署 vLLM 以实现高性能 LLM 推理。涵盖 Docker CPU/GPU 部署以及使用兼容 OpenAI 的 API 端点进行云虚拟机配置。 来源:stakpak/community-paks。

如何安装 vllm-deployment?

打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用

这个 Skill 的源码在哪?

https://github.com/stakpak/community-paks

详情

分类
</>开发工具
来源
skills.sh
收录时间
2026-02-26