·gpu-optimizer
</>

gpu-optimizer

Optimización experta de GPU para GPU de consumo modernas (8-24 GB de VRAM). Utilice esta habilidad cuando necesite optimizar el entrenamiento de GPU, acelerar el código CUDA, reducir los errores de OOM, ajustar XGBoost para GPU, migrar NumPy a CuPy, hacer un modelo más rápido, administrar la memoria de la GPU, optimizar el uso de VRAM o comparar PyTorch. Cubre precisión mixta, puntos de control de gradiente, aceleración de GPU XGBoost, migración CuPy/cuDF, vectorización, torch.compile y diagnóstico. Solo GPU NVIDIA. Marcos PyTorch, XGBoost y RAPIDS.

10Instalaciones·0Tendencia·@mathews-tom

Instalación

$npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer

Cómo instalar gpu-optimizer

Instala rápidamente el skill de IA gpu-optimizer en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: mathews-tom/praxis-skills.

SKILL.md

Ver original

Expert GPU optimization for consumer GPUs with 8–24GB VRAM. Evidence-based patterns only.

| GPU model | (e.g., RTX 4080 Mobile, RTX 3090, RTX 4090) | | VRAM | (e.g., 12GB, 16GB, 24GB) | | CUDA version | (nvidia-smi → top-right) | | TDP / power limit | (laptop vs desktop affects sustained throughput) | | Driver version | (nvidia-smi → top-left) |

Key constraint: VRAM capacity determines which strategies apply. Patterns below are annotated with minimum VRAM requirements where relevant.

Optimización experta de GPU para GPU de consumo modernas (8-24 GB de VRAM). Utilice esta habilidad cuando necesite optimizar el entrenamiento de GPU, acelerar el código CUDA, reducir los errores de OOM, ajustar XGBoost para GPU, migrar NumPy a CuPy, hacer un modelo más rápido, administrar la memoria de la GPU, optimizar el uso de VRAM o comparar PyTorch. Cubre precisión mixta, puntos de control de gradiente, aceleración de GPU XGBoost, migración CuPy/cuDF, vectorización, torch.compile y diagnóstico. Solo GPU NVIDIA. Marcos PyTorch, XGBoost y RAPIDS. Fuente: mathews-tom/praxis-skills.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-03-10
Actualizado
2026-03-10

Browse more skills from mathews-tom/praxis-skills

Respuestas rápidas

¿Qué es gpu-optimizer?

Optimización experta de GPU para GPU de consumo modernas (8-24 GB de VRAM). Utilice esta habilidad cuando necesite optimizar el entrenamiento de GPU, acelerar el código CUDA, reducir los errores de OOM, ajustar XGBoost para GPU, migrar NumPy a CuPy, hacer un modelo más rápido, administrar la memoria de la GPU, optimizar el uso de VRAM o comparar PyTorch. Cubre precisión mixta, puntos de control de gradiente, aceleración de GPU XGBoost, migración CuPy/cuDF, vectorización, torch.compile y diagnóstico. Solo GPU NVIDIA. Marcos PyTorch, XGBoost y RAPIDS. Fuente: mathews-tom/praxis-skills.

¿Cómo instalo gpu-optimizer?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/mathews-tom/praxis-skills