·megatron-memory-estimator
</>

megatron-memory-estimator

yzlnew/infra-skills

Calcule el uso de memoria de GPU para MoE (mezcla de expertos) basado en Megatron y modelos densos. Úselo cuando los usuarios necesiten (1) estimar la memoria a partir de las configuraciones del modelo HuggingFace (DeepSeek-V3, Qwen, etc.), (2) planificar la asignación de recursos de GPU para el entrenamiento, (3) comparar diferentes estrategias de paralelismo (TP/PP/EP/CP), (4) determinar si un modelo cabe en la memoria de GPU disponible u (5) optimizar las configuraciones de entrenamiento para la eficiencia de la memoria.

0Instalaciones·0Tendencia·@yzlnew

Instalación

$npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator

SKILL.md

Estimate GPU memory usage for Megatron-based models directly from HuggingFace configs or custom specifications.

Automatically converts HuggingFace configs to Megatron format and estimates memory.

Because this tool relies on Megatron-LM components, you need to add both the tool directory and Megatron-LM to your PYTHONPATH.

Calcule el uso de memoria de GPU para MoE (mezcla de expertos) basado en Megatron y modelos densos. Úselo cuando los usuarios necesiten (1) estimar la memoria a partir de las configuraciones del modelo HuggingFace (DeepSeek-V3, Qwen, etc.), (2) planificar la asignación de recursos de GPU para el entrenamiento, (3) comparar diferentes estrategias de paralelismo (TP/PP/EP/CP), (4) determinar si un modelo cabe en la memoria de GPU disponible u (5) optimizar las configuraciones de entrenamiento para la eficiencia de la memoria. Fuente: yzlnew/infra-skills.

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-01
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es megatron-memory-estimator?

Calcule el uso de memoria de GPU para MoE (mezcla de expertos) basado en Megatron y modelos densos. Úselo cuando los usuarios necesiten (1) estimar la memoria a partir de las configuraciones del modelo HuggingFace (DeepSeek-V3, Qwen, etc.), (2) planificar la asignación de recursos de GPU para el entrenamiento, (3) comparar diferentes estrategias de paralelismo (TP/PP/EP/CP), (4) determinar si un modelo cabe en la memoria de GPU disponible u (5) optimizar las configuraciones de entrenamiento para la eficiencia de la memoria. Fuente: yzlnew/infra-skills.

¿Cómo instalo megatron-memory-estimator?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/yzlnew/infra-skills

Detalles

Categoría
</>Desarrollo
Fuente
user
Primera vez visto
2026-02-01