megatron-memory-estimator
Estimez l’utilisation de la mémoire GPU pour les modèles MoE (mélange d’experts) et denses basés sur Megatron. À utiliser lorsque les utilisateurs doivent (1) estimer la mémoire à partir des configurations du modèle HuggingFace (DeepSeek-V3, Qwen, etc.), (2) planifier l'allocation des ressources GPU pour la formation, (3) comparer différentes stratégies de parallélisme (TP/PP/EP/CP), (4) déterminer si un modèle tient dans la mémoire GPU disponible ou (5) optimiser les configurations de formation pour l'efficacité de la mémoire.
Installation
SKILL.md
Estimate GPU memory usage for Megatron-based models directly from HuggingFace configs or custom specifications.
Automatically converts HuggingFace configs to Megatron format and estimates memory.
Because this tool relies on Megatron-LM components, you need to add both the tool directory and Megatron-LM to your PYTHONPATH.
Estimez l’utilisation de la mémoire GPU pour les modèles MoE (mélange d’experts) et denses basés sur Megatron. À utiliser lorsque les utilisateurs doivent (1) estimer la mémoire à partir des configurations du modèle HuggingFace (DeepSeek-V3, Qwen, etc.), (2) planifier l'allocation des ressources GPU pour la formation, (3) comparer différentes stratégies de parallélisme (TP/PP/EP/CP), (4) déterminer si un modèle tient dans la mémoire GPU disponible ou (5) optimiser les configurations de formation pour l'efficacité de la mémoire. Source : yzlnew/infra-skills.
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator- Source
- yzlnew/infra-skills
- Catégorie
- </>Développement
- Vérifié
- —
- Première apparition
- 2026-02-01
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que megatron-memory-estimator ?
Estimez l’utilisation de la mémoire GPU pour les modèles MoE (mélange d’experts) et denses basés sur Megatron. À utiliser lorsque les utilisateurs doivent (1) estimer la mémoire à partir des configurations du modèle HuggingFace (DeepSeek-V3, Qwen, etc.), (2) planifier l'allocation des ressources GPU pour la formation, (3) comparer différentes stratégies de parallélisme (TP/PP/EP/CP), (4) déterminer si un modèle tient dans la mémoire GPU disponible ou (5) optimiser les configurations de formation pour l'efficacité de la mémoire. Source : yzlnew/infra-skills.
Comment installer megatron-memory-estimator ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/yzlnew/infra-skills
Détails
- Catégorie
- </>Développement
- Source
- user
- Première apparition
- 2026-02-01