·megatron-memory-estimator
</>

megatron-memory-estimator

yzlnew/infra-skills

Estimez l’utilisation de la mémoire GPU pour les modèles MoE (mélange d’experts) et denses basés sur Megatron. À utiliser lorsque les utilisateurs doivent (1) estimer la mémoire à partir des configurations du modèle HuggingFace (DeepSeek-V3, Qwen, etc.), (2) planifier l'allocation des ressources GPU pour la formation, (3) comparer différentes stratégies de parallélisme (TP/PP/EP/CP), (4) déterminer si un modèle tient dans la mémoire GPU disponible ou (5) optimiser les configurations de formation pour l'efficacité de la mémoire.

0Installations·0Tendance·@yzlnew

Installation

$npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator

SKILL.md

Estimate GPU memory usage for Megatron-based models directly from HuggingFace configs or custom specifications.

Automatically converts HuggingFace configs to Megatron format and estimates memory.

Because this tool relies on Megatron-LM components, you need to add both the tool directory and Megatron-LM to your PYTHONPATH.

Estimez l’utilisation de la mémoire GPU pour les modèles MoE (mélange d’experts) et denses basés sur Megatron. À utiliser lorsque les utilisateurs doivent (1) estimer la mémoire à partir des configurations du modèle HuggingFace (DeepSeek-V3, Qwen, etc.), (2) planifier l'allocation des ressources GPU pour la formation, (3) comparer différentes stratégies de parallélisme (TP/PP/EP/CP), (4) déterminer si un modèle tient dans la mémoire GPU disponible ou (5) optimiser les configurations de formation pour l'efficacité de la mémoire. Source : yzlnew/infra-skills.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-01
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que megatron-memory-estimator ?

Estimez l’utilisation de la mémoire GPU pour les modèles MoE (mélange d’experts) et denses basés sur Megatron. À utiliser lorsque les utilisateurs doivent (1) estimer la mémoire à partir des configurations du modèle HuggingFace (DeepSeek-V3, Qwen, etc.), (2) planifier l'allocation des ressources GPU pour la formation, (3) comparer différentes stratégies de parallélisme (TP/PP/EP/CP), (4) déterminer si un modèle tient dans la mémoire GPU disponible ou (5) optimiser les configurations de formation pour l'efficacité de la mémoire. Source : yzlnew/infra-skills.

Comment installer megatron-memory-estimator ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/yzlnew/infra-skills

Détails

Catégorie
</>Développement
Source
user
Première apparition
2026-02-01