ما هي vllm-deploy-docker؟
انشر vLLM باستخدام Docker (الصور المعدة مسبقًا أو البناء من المصدر) مع دعم NVIDIA GPU وقم بتشغيل الخادم المتوافق مع OpenAI. المصدر: vllm-project/vllm-skills.
انشر vLLM باستخدام Docker (الصور المعدة مسبقًا أو البناء من المصدر) مع دعم NVIDIA GPU وقم بتشغيل الخادم المتوافق مع OpenAI.
ثبّت مهارة الذكاء الاصطناعي vllm-deploy-docker بسرعة في بيئة التطوير لديك عبر سطر الأوامر
المصدر: vllm-project/vllm-skills.
A Claude skill describing how to deploy vLLM with Docker using the official pre-built images or building the image from source supporting NVIDIA GPUs with CUDA. Instructions include NVIDIA CUDA support, example docker run and a minimal docker-compose snippet, recommended flags, and troubleshooting notes. For AMD, Intel, or other accelerators, please refer to the vLLM documentation for alternative deployment methods.
Run a vLLM OpenAI-compatible server with GPU access, mounting the HF cache and forwarding port 8000:
Note: vLLM and this skill recommend using the latest Docker image (vllm/vllm-openai:latest). For legacy version images, you may refer to the Docker Hub image tags.
انشر vLLM باستخدام Docker (الصور المعدة مسبقًا أو البناء من المصدر) مع دعم NVIDIA GPU وقم بتشغيل الخادم المتوافق مع OpenAI. المصدر: vllm-project/vllm-skills.
حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.
npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-dockerانشر vLLM باستخدام Docker (الصور المعدة مسبقًا أو البناء من المصدر) مع دعم NVIDIA GPU وقم بتشغيل الخادم المتوافق مع OpenAI. المصدر: vllm-project/vllm-skills.
افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/vllm-project/vllm-skills --skill vllm-deploy-docker بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw
https://github.com/vllm-project/vllm-skills