·training-llms-megatron
</>

training-llms-megatron

Addestra modelli linguistici di grandi dimensioni (parametri 2B-462B) utilizzando NVIDIA Megatron-Core con strategie di parallelismo avanzate. Da utilizzare quando si addestrano modelli con parametri >1B, è necessaria la massima efficienza della GPU (47% MFU su H100) o si richiede parallelismo tensore/pipeline/sequenza/contesto/esperto. Framework pronto per la produzione utilizzato per Nemotron, LLaMA, DeepSeek.

26Installazioni·0Tendenza·@ovachiever

Installazione

$npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron

Come installare training-llms-megatron

Installa rapidamente la skill AI training-llms-megatron nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: ovachiever/droid-tings.

Megatron-Core trains LLMs from 2B to 462B parameters with up to 47% Model FLOP Utilization on H100 GPUs through advanced parallelism strategies.

| Model Size | GPUs | Tensor Parallel | Pipeline Parallel | Data Parallel | Context Parallel |

| 7B | 8 | 1 | 1 | 8 | 1 | | 13B | 8 | 2 | 1 | 4 | 1 | | 70B | 64 | 4 | 4 | 4 | 1 | | 405B | 128 | 8 | 8 | 2 | 2 |

Addestra modelli linguistici di grandi dimensioni (parametri 2B-462B) utilizzando NVIDIA Megatron-Core con strategie di parallelismo avanzate. Da utilizzare quando si addestrano modelli con parametri >1B, è necessaria la massima efficienza della GPU (47% MFU su H100) o si richiede parallelismo tensore/pipeline/sequenza/contesto/esperto. Framework pronto per la produzione utilizzato per Nemotron, LLaMA, DeepSeek. Fonte: ovachiever/droid-tings.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-03-03
Aggiornato
2026-03-10

Browse more skills from ovachiever/droid-tings

Risposte rapide

Che cos'è training-llms-megatron?

Addestra modelli linguistici di grandi dimensioni (parametri 2B-462B) utilizzando NVIDIA Megatron-Core con strategie di parallelismo avanzate. Da utilizzare quando si addestrano modelli con parametri >1B, è necessaria la massima efficienza della GPU (47% MFU su H100) o si richiede parallelismo tensore/pipeline/sequenza/contesto/esperto. Framework pronto per la produzione utilizzato per Nemotron, LLaMA, DeepSeek. Fonte: ovachiever/droid-tings.

Come installo training-llms-megatron?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/ovachiever/droid-tings