megatron-memory-estimator
Calcule el uso de memoria de GPU para MoE (mezcla de expertos) basado en Megatron y modelos densos. Úselo cuando los usuarios necesiten (1) estimar la memoria a partir de las configuraciones del modelo HuggingFace (DeepSeek-V3, Qwen, etc.), (2) planificar la asignación de recursos de GPU para el entrenamiento, (3) comparar diferentes estrategias de paralelismo (TP/PP/EP/CP), (4) determinar si un modelo cabe en la memoria de GPU disponible u (5) optimizar las configuraciones de entrenamiento para la eficiencia de la memoria.
Instalación
SKILL.md
Estimate GPU memory usage for Megatron-based models directly from HuggingFace configs or custom specifications.
Automatically converts HuggingFace configs to Megatron format and estimates memory.
Because this tool relies on Megatron-LM components, you need to add both the tool directory and Megatron-LM to your PYTHONPATH.
Calcule el uso de memoria de GPU para MoE (mezcla de expertos) basado en Megatron y modelos densos. Úselo cuando los usuarios necesiten (1) estimar la memoria a partir de las configuraciones del modelo HuggingFace (DeepSeek-V3, Qwen, etc.), (2) planificar la asignación de recursos de GPU para el entrenamiento, (3) comparar diferentes estrategias de paralelismo (TP/PP/EP/CP), (4) determinar si un modelo cabe en la memoria de GPU disponible u (5) optimizar las configuraciones de entrenamiento para la eficiencia de la memoria. Fuente: yzlnew/infra-skills.
Datos (listos para citar)
Campos y comandos estables para citas de IA/búsqueda.
- Comando de instalación
npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator- Fuente
- yzlnew/infra-skills
- Categoría
- </>Desarrollo
- Verificado
- —
- Primera vez visto
- 2026-02-01
- Actualizado
- 2026-02-18
Respuestas rápidas
¿Qué es megatron-memory-estimator?
Calcule el uso de memoria de GPU para MoE (mezcla de expertos) basado en Megatron y modelos densos. Úselo cuando los usuarios necesiten (1) estimar la memoria a partir de las configuraciones del modelo HuggingFace (DeepSeek-V3, Qwen, etc.), (2) planificar la asignación de recursos de GPU para el entrenamiento, (3) comparar diferentes estrategias de paralelismo (TP/PP/EP/CP), (4) determinar si un modelo cabe en la memoria de GPU disponible u (5) optimizar las configuraciones de entrenamiento para la eficiencia de la memoria. Fuente: yzlnew/infra-skills.
¿Cómo instalo megatron-memory-estimator?
Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor
¿Dónde está el repositorio de origen?
https://github.com/yzlnew/infra-skills
Detalles
- Categoría
- </>Desarrollo
- Fuente
- user
- Primera vez visto
- 2026-02-01