ما هي vllm-deployment؟
انشر vLLM لاستدلال LLM عالي الأداء. يغطي عمليات نشر Docker CPU/GPU وتوفير الأجهزة الافتراضية السحابية مع نقاط نهاية API المتوافقة مع OpenAI. المصدر: stakpak/community-paks.
انشر vLLM لاستدلال LLM عالي الأداء. يغطي عمليات نشر Docker CPU/GPU وتوفير الأجهزة الافتراضية السحابية مع نقاط نهاية API المتوافقة مع OpenAI.
ثبّت مهارة الذكاء الاصطناعي vllm-deployment بسرعة في بيئة التطوير لديك عبر سطر الأوامر
المصدر: stakpak/community-paks.
| CPU | 2x model size | 4x model size | | GPU | Model size + 2GB | Model size + 4GB VRAM |
| VLLMCPUKVCACHESPACE | KV cache size in GB (CPU) | 4 | | VLLMCPUOMPTHREADSBIND | CPU core binding (CPU) | 0-7 | | CUDAVISIBLEDEVICES | GPU device selection | 0,1 | | HFTOKEN | HuggingFace authentication | hfxxx |
| --shm-size=4g | Shared memory for IPC | | --cap-add SYSNICE | NUMA optimization (CPU) | | --security-opt seccomp=unconfined | Memory policy syscalls (CPU) | | --gpus all | GPU access | | -p 8000:8000 | Port mapping |
انشر vLLM لاستدلال LLM عالي الأداء. يغطي عمليات نشر Docker CPU/GPU وتوفير الأجهزة الافتراضية السحابية مع نقاط نهاية API المتوافقة مع OpenAI. المصدر: stakpak/community-paks.
حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.
npx skills add https://github.com/stakpak/community-paks --skill vllm-deploymentانشر vLLM لاستدلال LLM عالي الأداء. يغطي عمليات نشر Docker CPU/GPU وتوفير الأجهزة الافتراضية السحابية مع نقاط نهاية API المتوافقة مع OpenAI. المصدر: stakpak/community-paks.
افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw
https://github.com/stakpak/community-paks