·gpu-optimizer
</>

gpu-optimizer

Ottimizzazione GPU esperta per le moderne GPU consumer (VRAM da 8-24 GB). Utilizza questa competenza quando devi ottimizzare l'addestramento della GPU, velocizzare il codice CUDA, ridurre gli errori OOM, ottimizzare XGBoost per GPU, migrare NumPy su CuPy, rendere un modello più veloce, gestire la memoria GPU, ottimizzare l'utilizzo della VRAM o eseguire il benchmark di PyTorch. Copre precisione mista, checkpoint del gradiente, accelerazione GPU XGBoost, migrazione CuPy/cuDF, vettorizzazione, torch.compile e diagnostica. Solo GPU NVIDIA. Framework PyTorch, XGBoost e RAPIDS.

10Installazioni·0Tendenza·@mathews-tom

Installazione

$npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer

Come installare gpu-optimizer

Installa rapidamente la skill AI gpu-optimizer nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: mathews-tom/praxis-skills.

Expert GPU optimization for consumer GPUs with 8–24GB VRAM. Evidence-based patterns only.

| GPU model | (e.g., RTX 4080 Mobile, RTX 3090, RTX 4090) | | VRAM | (e.g., 12GB, 16GB, 24GB) | | CUDA version | (nvidia-smi → top-right) | | TDP / power limit | (laptop vs desktop affects sustained throughput) | | Driver version | (nvidia-smi → top-left) |

Key constraint: VRAM capacity determines which strategies apply. Patterns below are annotated with minimum VRAM requirements where relevant.

Ottimizzazione GPU esperta per le moderne GPU consumer (VRAM da 8-24 GB). Utilizza questa competenza quando devi ottimizzare l'addestramento della GPU, velocizzare il codice CUDA, ridurre gli errori OOM, ottimizzare XGBoost per GPU, migrare NumPy su CuPy, rendere un modello più veloce, gestire la memoria GPU, ottimizzare l'utilizzo della VRAM o eseguire il benchmark di PyTorch. Copre precisione mista, checkpoint del gradiente, accelerazione GPU XGBoost, migrazione CuPy/cuDF, vettorizzazione, torch.compile e diagnostica. Solo GPU NVIDIA. Framework PyTorch, XGBoost e RAPIDS. Fonte: mathews-tom/praxis-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-03-10
Aggiornato
2026-03-11

Browse more skills from mathews-tom/praxis-skills

Risposte rapide

Che cos'è gpu-optimizer?

Ottimizzazione GPU esperta per le moderne GPU consumer (VRAM da 8-24 GB). Utilizza questa competenza quando devi ottimizzare l'addestramento della GPU, velocizzare il codice CUDA, ridurre gli errori OOM, ottimizzare XGBoost per GPU, migrare NumPy su CuPy, rendere un modello più veloce, gestire la memoria GPU, ottimizzare l'utilizzo della VRAM o eseguire il benchmark di PyTorch. Copre precisione mista, checkpoint del gradiente, accelerazione GPU XGBoost, migrazione CuPy/cuDF, vettorizzazione, torch.compile e diagnostica. Solo GPU NVIDIA. Framework PyTorch, XGBoost e RAPIDS. Fonte: mathews-tom/praxis-skills.

Come installo gpu-optimizer?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/mathews-tom/praxis-skills