·training-llms-megatron
</>

training-llms-megatron

Trains large language models (2B-462B parameters) using NVIDIA Megatron-Core with advanced parallelism strategies. Wird verwendet, wenn Modelle mit mehr als 1 B Parametern trainiert werden, maximale GPU-Effizienz (47 % MFU auf H100) erforderlich ist oder Tensor-/Pipeline-/Sequenz-/Kontext-/Expertenparallelität erforderlich ist. Production-ready framework used for Nemotron, LLaMA, DeepSeek.

26Installationen·0Trend·@ovachiever

Installation

$npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron

So installieren Sie training-llms-megatron

Installieren Sie den KI-Skill training-llms-megatron schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: ovachiever/droid-tings.

Megatron-Core trains LLMs from 2B to 462B parameters with up to 47% Model FLOP Utilization on H100 GPUs through advanced parallelism strategies.

| Model Size | GPUs | Tensor Parallel | Pipeline Parallel | Data Parallel | Context Parallel |

| 7B | 8 | 1 | 1 | 8 | 1 | | 13B | 8 | 2 | 1 | 4 | 1 | | 70B | 64 | 4 | 4 | 4 | 1 | | 405B | 128 | 8 | 8 | 2 | 2 |

Trains large language models (2B-462B parameters) using NVIDIA Megatron-Core with advanced parallelism strategies. Wird verwendet, wenn Modelle mit mehr als 1 B Parametern trainiert werden, maximale GPU-Effizienz (47 % MFU auf H100) erforderlich ist oder Tensor-/Pipeline-/Sequenz-/Kontext-/Expertenparallelität erforderlich ist. Production-ready framework used for Nemotron, LLaMA, DeepSeek. Quelle: ovachiever/droid-tings.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-03-03
Aktualisiert
2026-03-10

Browse more skills from ovachiever/droid-tings

Schnelle Antworten

Was ist training-llms-megatron?

Trains large language models (2B-462B parameters) using NVIDIA Megatron-Core with advanced parallelism strategies. Wird verwendet, wenn Modelle mit mehr als 1 B Parametern trainiert werden, maximale GPU-Effizienz (47 % MFU auf H100) erforderlich ist oder Tensor-/Pipeline-/Sequenz-/Kontext-/Expertenparallelität erforderlich ist. Production-ready framework used for Nemotron, LLaMA, DeepSeek. Quelle: ovachiever/droid-tings.

Wie installiere ich training-llms-megatron?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/ovachiever/droid-tings