·vllm-deploy-docker
</>

vllm-deploy-docker

انشر vLLM باستخدام Docker (الصور المعدة مسبقًا أو البناء من المصدر) مع دعم NVIDIA GPU وقم بتشغيل الخادم المتوافق مع OpenAI.

0التثبيتات·0الرائج·@vllm-project

التثبيت

$npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker

كيفية تثبيت vllm-deploy-docker

ثبّت مهارة الذكاء الاصطناعي vllm-deploy-docker بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: vllm-project/vllm-skills.

A Claude skill describing how to deploy vLLM with Docker using the official pre-built images or building the image from source supporting NVIDIA GPUs with CUDA. Instructions include NVIDIA CUDA support, example docker run and a minimal docker-compose snippet, recommended flags, and troubleshooting notes. For AMD, Intel, or other accelerators, please refer to the vLLM documentation for alternative deployment methods.

Run a vLLM OpenAI-compatible server with GPU access, mounting the HF cache and forwarding port 8000:

Note: vLLM and this skill recommend using the latest Docker image (vllm/vllm-openai:latest). For legacy version images, you may refer to the Docker Hub image tags.

انشر vLLM باستخدام Docker (الصور المعدة مسبقًا أو البناء من المصدر) مع دعم NVIDIA GPU وقم بتشغيل الخادم المتوافق مع OpenAI. المصدر: vllm-project/vllm-skills.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-03-12
آخر تحديث
2026-03-13

Browse more skills from vllm-project/vllm-skills

إجابات سريعة

ما هي vllm-deploy-docker؟

انشر vLLM باستخدام Docker (الصور المعدة مسبقًا أو البناء من المصدر) مع دعم NVIDIA GPU وقم بتشغيل الخادم المتوافق مع OpenAI. المصدر: vllm-project/vllm-skills.

كيف أثبّت vllm-deploy-docker؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/vllm-project/vllm-skills

التفاصيل

الفئة
</>أدوات التطوير
المصدر
user
أول ظهور
2026-03-12

مهارات ذات صلة