·training-llms-megatron
</>

training-llms-megatron

Entrena modelos de lenguaje grandes (parámetros 2B-462B) utilizando NVIDIA Megatron-Core con estrategias de paralelismo avanzadas. Úselo cuando entrene modelos con >1B de parámetros, necesite la máxima eficiencia de GPU (47 % de MFU en H100) o requiera tensor/canalización/secuencia/contexto/paralelismo experto. Marco listo para producción utilizado para Nemotron, LLaMA, DeepSeek.

26Instalaciones·0Tendencia·@ovachiever

Instalación

$npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron

Cómo instalar training-llms-megatron

Instala rápidamente el skill de IA training-llms-megatron en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: ovachiever/droid-tings.

SKILL.md

Ver original

Megatron-Core trains LLMs from 2B to 462B parameters with up to 47% Model FLOP Utilization on H100 GPUs through advanced parallelism strategies.

| Model Size | GPUs | Tensor Parallel | Pipeline Parallel | Data Parallel | Context Parallel |

| 7B | 8 | 1 | 1 | 8 | 1 | | 13B | 8 | 2 | 1 | 4 | 1 | | 70B | 64 | 4 | 4 | 4 | 1 | | 405B | 128 | 8 | 8 | 2 | 2 |

Entrena modelos de lenguaje grandes (parámetros 2B-462B) utilizando NVIDIA Megatron-Core con estrategias de paralelismo avanzadas. Úselo cuando entrene modelos con >1B de parámetros, necesite la máxima eficiencia de GPU (47 % de MFU en H100) o requiera tensor/canalización/secuencia/contexto/paralelismo experto. Marco listo para producción utilizado para Nemotron, LLaMA, DeepSeek. Fuente: ovachiever/droid-tings.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-03-03
Actualizado
2026-03-10

Browse more skills from ovachiever/droid-tings

Respuestas rápidas

¿Qué es training-llms-megatron?

Entrena modelos de lenguaje grandes (parámetros 2B-462B) utilizando NVIDIA Megatron-Core con estrategias de paralelismo avanzadas. Úselo cuando entrene modelos con >1B de parámetros, necesite la máxima eficiencia de GPU (47 % de MFU en H100) o requiera tensor/canalización/secuencia/contexto/paralelismo experto. Marco listo para producción utilizado para Nemotron, LLaMA, DeepSeek. Fuente: ovachiever/droid-tings.

¿Cómo instalo training-llms-megatron?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/ovachiever/droid-tings