·gpu-optimizer
</>

gpu-optimizer

Optimisation experte du GPU pour les GPU grand public modernes (8 à 24 Go de VRAM). Utilisez cette compétence lorsque vous devez optimiser la formation du GPU, accélérer le code CUDA, réduire les erreurs de MOO, régler XGBoost pour le GPU, migrer NumPy vers CuPy, accélérer un modèle, gérer la mémoire GPU, optimiser l'utilisation de la VRAM ou comparer PyTorch. Couvre la précision mixte, les points de contrôle de gradient, l'accélération GPU XGBoost, la migration CuPy/cuDF, la vectorisation, torch.compile et les diagnostics. GPU NVIDIA uniquement. Frameworks PyTorch, XGBoost et RAPIDS.

10Installations·0Tendance·@mathews-tom

Installation

$npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer

Comment installer gpu-optimizer

Installez rapidement le skill IA gpu-optimizer dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : mathews-tom/praxis-skills.

Expert GPU optimization for consumer GPUs with 8–24GB VRAM. Evidence-based patterns only.

| GPU model | (e.g., RTX 4080 Mobile, RTX 3090, RTX 4090) | | VRAM | (e.g., 12GB, 16GB, 24GB) | | CUDA version | (nvidia-smi → top-right) | | TDP / power limit | (laptop vs desktop affects sustained throughput) | | Driver version | (nvidia-smi → top-left) |

Key constraint: VRAM capacity determines which strategies apply. Patterns below are annotated with minimum VRAM requirements where relevant.

Optimisation experte du GPU pour les GPU grand public modernes (8 à 24 Go de VRAM). Utilisez cette compétence lorsque vous devez optimiser la formation du GPU, accélérer le code CUDA, réduire les erreurs de MOO, régler XGBoost pour le GPU, migrer NumPy vers CuPy, accélérer un modèle, gérer la mémoire GPU, optimiser l'utilisation de la VRAM ou comparer PyTorch. Couvre la précision mixte, les points de contrôle de gradient, l'accélération GPU XGBoost, la migration CuPy/cuDF, la vectorisation, torch.compile et les diagnostics. GPU NVIDIA uniquement. Frameworks PyTorch, XGBoost et RAPIDS. Source : mathews-tom/praxis-skills.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer
Catégorie
</>Développement
Vérifié
Première apparition
2026-03-10
Mis à jour
2026-03-11

Browse more skills from mathews-tom/praxis-skills

Réponses rapides

Qu'est-ce que gpu-optimizer ?

Optimisation experte du GPU pour les GPU grand public modernes (8 à 24 Go de VRAM). Utilisez cette compétence lorsque vous devez optimiser la formation du GPU, accélérer le code CUDA, réduire les erreurs de MOO, régler XGBoost pour le GPU, migrer NumPy vers CuPy, accélérer un modèle, gérer la mémoire GPU, optimiser l'utilisation de la VRAM ou comparer PyTorch. Couvre la précision mixte, les points de contrôle de gradient, l'accélération GPU XGBoost, la migration CuPy/cuDF, la vectorisation, torch.compile et les diagnostics. GPU NVIDIA uniquement. Frameworks PyTorch, XGBoost et RAPIDS. Source : mathews-tom/praxis-skills.

Comment installer gpu-optimizer ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/mathews-tom/praxis-skills --skill gpu-optimizer Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/mathews-tom/praxis-skills