·gpu-optimizer
</>

gpu-optimizer

تحسين احترافي لوحدة معالجة الرسومات لوحدات معالجة الرسومات الاستهلاكية الحديثة (8-24 جيجابايت VRAM). استخدم هذه المهارة عندما تحتاج إلى تحسين تدريب وحدة معالجة الرسومات، أو تسريع كود CUDA، أو تقليل أخطاء OOM، أو ضبط XGBoost لوحدة معالجة الرسومات، أو ترحيل NumPy إلى CuPy، أو إنشاء نموذج بشكل أسرع، أو إدارة ذاكرة وحدة معالجة الرسومات، أو تحسين استخدام VRAM، أو قياس أداء PyTorch. يغطي الدقة المختلطة، وفحص التدرج، وتسريع XGBoost GPU، وترحيل CuPy/cuDF، والتحويل، وtorch.compile، والتشخيص. وحدات معالجة الرسومات NVIDIA فقط. أطر عمل PyTorch وXGBoost وRAPIDS.

10التثبيتات·0الرائج·@mathews-tom

التثبيت

$npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer

كيفية تثبيت gpu-optimizer

ثبّت مهارة الذكاء الاصطناعي gpu-optimizer بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: mathews-tom/praxis-skills.

Expert GPU optimization for consumer GPUs with 8–24GB VRAM. Evidence-based patterns only.

| GPU model | (e.g., RTX 4080 Mobile, RTX 3090, RTX 4090) | | VRAM | (e.g., 12GB, 16GB, 24GB) | | CUDA version | (nvidia-smi → top-right) | | TDP / power limit | (laptop vs desktop affects sustained throughput) | | Driver version | (nvidia-smi → top-left) |

Key constraint: VRAM capacity determines which strategies apply. Patterns below are annotated with minimum VRAM requirements where relevant.

تحسين احترافي لوحدة معالجة الرسومات لوحدات معالجة الرسومات الاستهلاكية الحديثة (8-24 جيجابايت VRAM). استخدم هذه المهارة عندما تحتاج إلى تحسين تدريب وحدة معالجة الرسومات، أو تسريع كود CUDA، أو تقليل أخطاء OOM، أو ضبط XGBoost لوحدة معالجة الرسومات، أو ترحيل NumPy إلى CuPy، أو إنشاء نموذج بشكل أسرع، أو إدارة ذاكرة وحدة معالجة الرسومات، أو تحسين استخدام VRAM، أو قياس أداء PyTorch. يغطي الدقة المختلطة، وفحص التدرج، وتسريع XGBoost GPU، وترحيل CuPy/cuDF، والتحويل، وtorch.compile، والتشخيص. وحدات معالجة الرسومات NVIDIA فقط. أطر عمل PyTorch وXGBoost وRAPIDS. المصدر: mathews-tom/praxis-skills.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-03-10
آخر تحديث
2026-03-11

Browse more skills from mathews-tom/praxis-skills

إجابات سريعة

ما هي gpu-optimizer؟

تحسين احترافي لوحدة معالجة الرسومات لوحدات معالجة الرسومات الاستهلاكية الحديثة (8-24 جيجابايت VRAM). استخدم هذه المهارة عندما تحتاج إلى تحسين تدريب وحدة معالجة الرسومات، أو تسريع كود CUDA، أو تقليل أخطاء OOM، أو ضبط XGBoost لوحدة معالجة الرسومات، أو ترحيل NumPy إلى CuPy، أو إنشاء نموذج بشكل أسرع، أو إدارة ذاكرة وحدة معالجة الرسومات، أو تحسين استخدام VRAM، أو قياس أداء PyTorch. يغطي الدقة المختلطة، وفحص التدرج، وتسريع XGBoost GPU، وترحيل CuPy/cuDF، والتحويل، وtorch.compile، والتشخيص. وحدات معالجة الرسومات NVIDIA فقط. أطر عمل PyTorch وXGBoost وRAPIDS. المصدر: mathews-tom/praxis-skills.

كيف أثبّت gpu-optimizer؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/mathews-tom/praxis-skills

التفاصيل

الفئة
</>أدوات التطوير
المصدر
skills.sh
أول ظهور
2026-03-10