·vllm-deployment
</>

vllm-deployment

انشر vLLM لاستدلال LLM عالي الأداء. يغطي عمليات نشر Docker CPU/GPU وتوفير الأجهزة الافتراضية السحابية مع نقاط نهاية API المتوافقة مع OpenAI.

4التثبيتات·0الرائج·@stakpak

التثبيت

$npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment

كيفية تثبيت vllm-deployment

ثبّت مهارة الذكاء الاصطناعي vllm-deployment بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: stakpak/community-paks.

| CPU | 2x model size | 4x model size | | GPU | Model size + 2GB | Model size + 4GB VRAM |

| VLLMCPUKVCACHESPACE | KV cache size in GB (CPU) | 4 | | VLLMCPUOMPTHREADSBIND | CPU core binding (CPU) | 0-7 | | CUDAVISIBLEDEVICES | GPU device selection | 0,1 | | HFTOKEN | HuggingFace authentication | hfxxx |

| --shm-size=4g | Shared memory for IPC | | --cap-add SYSNICE | NUMA optimization (CPU) | | --security-opt seccomp=unconfined | Memory policy syscalls (CPU) | | --gpus all | GPU access | | -p 8000:8000 | Port mapping |

انشر vLLM لاستدلال LLM عالي الأداء. يغطي عمليات نشر Docker CPU/GPU وتوفير الأجهزة الافتراضية السحابية مع نقاط نهاية API المتوافقة مع OpenAI. المصدر: stakpak/community-paks.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-26
آخر تحديث
2026-03-11

Browse more skills from stakpak/community-paks

إجابات سريعة

ما هي vllm-deployment؟

انشر vLLM لاستدلال LLM عالي الأداء. يغطي عمليات نشر Docker CPU/GPU وتوفير الأجهزة الافتراضية السحابية مع نقاط نهاية API المتوافقة مع OpenAI. المصدر: stakpak/community-paks.

كيف أثبّت vllm-deployment؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/stakpak/community-paks --skill vllm-deployment بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/stakpak/community-paks

التفاصيل

الفئة
</>أدوات التطوير
المصدر
skills.sh
أول ظهور
2026-02-26