·gpu-optimizer
</>

gpu-optimizer

Experten-GPU-Optimierung für moderne Consumer-GPUs (8–24 GB VRAM). Nutzen Sie diese Fähigkeit, wenn Sie das GPU-Training optimieren, CUDA-Code beschleunigen, OOM-Fehler reduzieren, XGBoost für die GPU optimieren, NumPy zu CuPy migrieren, ein Modell schneller machen, den GPU-Speicher verwalten, die VRAM-Nutzung optimieren oder PyTorch einem Benchmarking unterziehen müssen. Deckt gemischte Präzision, Gradienten-Checkpointing, XGBoost-GPU-Beschleunigung, CuPy/cuDF-Migration, Vektorisierung, Torch.compile und Diagnose ab. Nur NVIDIA-GPUs. PyTorch-, XGBoost- und RAPIDS-Frameworks.

10Installationen·0Trend·@mathews-tom

Installation

$npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer

So installieren Sie gpu-optimizer

Installieren Sie den KI-Skill gpu-optimizer schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: mathews-tom/praxis-skills.

Expert GPU optimization for consumer GPUs with 8–24GB VRAM. Evidence-based patterns only.

| GPU model | (e.g., RTX 4080 Mobile, RTX 3090, RTX 4090) | | VRAM | (e.g., 12GB, 16GB, 24GB) | | CUDA version | (nvidia-smi → top-right) | | TDP / power limit | (laptop vs desktop affects sustained throughput) | | Driver version | (nvidia-smi → top-left) |

Key constraint: VRAM capacity determines which strategies apply. Patterns below are annotated with minimum VRAM requirements where relevant.

Experten-GPU-Optimierung für moderne Consumer-GPUs (8–24 GB VRAM). Nutzen Sie diese Fähigkeit, wenn Sie das GPU-Training optimieren, CUDA-Code beschleunigen, OOM-Fehler reduzieren, XGBoost für die GPU optimieren, NumPy zu CuPy migrieren, ein Modell schneller machen, den GPU-Speicher verwalten, die VRAM-Nutzung optimieren oder PyTorch einem Benchmarking unterziehen müssen. Deckt gemischte Präzision, Gradienten-Checkpointing, XGBoost-GPU-Beschleunigung, CuPy/cuDF-Migration, Vektorisierung, Torch.compile und Diagnose ab. Nur NVIDIA-GPUs. PyTorch-, XGBoost- und RAPIDS-Frameworks. Quelle: mathews-tom/praxis-skills.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-03-10
Aktualisiert
2026-03-10

Browse more skills from mathews-tom/praxis-skills

Schnelle Antworten

Was ist gpu-optimizer?

Experten-GPU-Optimierung für moderne Consumer-GPUs (8–24 GB VRAM). Nutzen Sie diese Fähigkeit, wenn Sie das GPU-Training optimieren, CUDA-Code beschleunigen, OOM-Fehler reduzieren, XGBoost für die GPU optimieren, NumPy zu CuPy migrieren, ein Modell schneller machen, den GPU-Speicher verwalten, die VRAM-Nutzung optimieren oder PyTorch einem Benchmarking unterziehen müssen. Deckt gemischte Präzision, Gradienten-Checkpointing, XGBoost-GPU-Beschleunigung, CuPy/cuDF-Migration, Vektorisierung, Torch.compile und Diagnose ab. Nur NVIDIA-GPUs. PyTorch-, XGBoost- und RAPIDS-Frameworks. Quelle: mathews-tom/praxis-skills.

Wie installiere ich gpu-optimizer?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/mathews-tom/praxis-skills