megatron-memory-estimator
Schätzen Sie die GPU-Speichernutzung für Megatron-basierte MoE-Modelle (Mixture of Experts) und dichte Modelle. Wird verwendet, wenn Benutzer (1) den Speicher aus HuggingFace-Modellkonfigurationen (DeepSeek-V3, Qwen usw.) schätzen müssen, (2) die GPU-Ressourcenzuweisung für das Training planen, (3) verschiedene Parallelitätsstrategien (TP/PP/EP/CP) vergleichen, (4) bestimmen müssen, ob ein Modell in den verfügbaren GPU-Speicher passt, oder (5) Trainingskonfigurationen für die Speichereffizienz optimieren müssen.
Installation
SKILL.md
Estimate GPU memory usage for Megatron-based models directly from HuggingFace configs or custom specifications.
Automatically converts HuggingFace configs to Megatron format and estimates memory.
Because this tool relies on Megatron-LM components, you need to add both the tool directory and Megatron-LM to your PYTHONPATH.
Schätzen Sie die GPU-Speichernutzung für Megatron-basierte MoE-Modelle (Mixture of Experts) und dichte Modelle. Wird verwendet, wenn Benutzer (1) den Speicher aus HuggingFace-Modellkonfigurationen (DeepSeek-V3, Qwen usw.) schätzen müssen, (2) die GPU-Ressourcenzuweisung für das Training planen, (3) verschiedene Parallelitätsstrategien (TP/PP/EP/CP) vergleichen, (4) bestimmen müssen, ob ein Modell in den verfügbaren GPU-Speicher passt, oder (5) Trainingskonfigurationen für die Speichereffizienz optimieren müssen. Quelle: yzlnew/infra-skills.
Fakten (zitierbereit)
Stabile Felder und Befehle für KI/Such-Zitate.
- Installationsbefehl
npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator- Quelle
- yzlnew/infra-skills
- Kategorie
- </>Entwicklung
- Verifiziert
- —
- Erstes Auftreten
- 2026-02-01
- Aktualisiert
- 2026-02-18
Schnelle Antworten
Was ist megatron-memory-estimator?
Schätzen Sie die GPU-Speichernutzung für Megatron-basierte MoE-Modelle (Mixture of Experts) und dichte Modelle. Wird verwendet, wenn Benutzer (1) den Speicher aus HuggingFace-Modellkonfigurationen (DeepSeek-V3, Qwen usw.) schätzen müssen, (2) die GPU-Ressourcenzuweisung für das Training planen, (3) verschiedene Parallelitätsstrategien (TP/PP/EP/CP) vergleichen, (4) bestimmen müssen, ob ein Modell in den verfügbaren GPU-Speicher passt, oder (5) Trainingskonfigurationen für die Speichereffizienz optimieren müssen. Quelle: yzlnew/infra-skills.
Wie installiere ich megatron-memory-estimator?
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Wo ist das Quell-Repository?
https://github.com/yzlnew/infra-skills
Details
- Kategorie
- </>Entwicklung
- Quelle
- user
- Erstes Auftreten
- 2026-02-01