·megatron-memory-estimator
</>

megatron-memory-estimator

yzlnew/infra-skills

Schätzen Sie die GPU-Speichernutzung für Megatron-basierte MoE-Modelle (Mixture of Experts) und dichte Modelle. Wird verwendet, wenn Benutzer (1) den Speicher aus HuggingFace-Modellkonfigurationen (DeepSeek-V3, Qwen usw.) schätzen müssen, (2) die GPU-Ressourcenzuweisung für das Training planen, (3) verschiedene Parallelitätsstrategien (TP/PP/EP/CP) vergleichen, (4) bestimmen müssen, ob ein Modell in den verfügbaren GPU-Speicher passt, oder (5) Trainingskonfigurationen für die Speichereffizienz optimieren müssen.

0Installationen·0Trend·@yzlnew

Installation

$npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator

SKILL.md

Estimate GPU memory usage for Megatron-based models directly from HuggingFace configs or custom specifications.

Automatically converts HuggingFace configs to Megatron format and estimates memory.

Because this tool relies on Megatron-LM components, you need to add both the tool directory and Megatron-LM to your PYTHONPATH.

Schätzen Sie die GPU-Speichernutzung für Megatron-basierte MoE-Modelle (Mixture of Experts) und dichte Modelle. Wird verwendet, wenn Benutzer (1) den Speicher aus HuggingFace-Modellkonfigurationen (DeepSeek-V3, Qwen usw.) schätzen müssen, (2) die GPU-Ressourcenzuweisung für das Training planen, (3) verschiedene Parallelitätsstrategien (TP/PP/EP/CP) vergleichen, (4) bestimmen müssen, ob ein Modell in den verfügbaren GPU-Speicher passt, oder (5) Trainingskonfigurationen für die Speichereffizienz optimieren müssen. Quelle: yzlnew/infra-skills.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-01
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist megatron-memory-estimator?

Schätzen Sie die GPU-Speichernutzung für Megatron-basierte MoE-Modelle (Mixture of Experts) und dichte Modelle. Wird verwendet, wenn Benutzer (1) den Speicher aus HuggingFace-Modellkonfigurationen (DeepSeek-V3, Qwen usw.) schätzen müssen, (2) die GPU-Ressourcenzuweisung für das Training planen, (3) verschiedene Parallelitätsstrategien (TP/PP/EP/CP) vergleichen, (4) bestimmen müssen, ob ein Modell in den verfügbaren GPU-Speicher passt, oder (5) Trainingskonfigurationen für die Speichereffizienz optimieren müssen. Quelle: yzlnew/infra-skills.

Wie installiere ich megatron-memory-estimator?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/yzlnew/infra-skills

Details

Kategorie
</>Entwicklung
Quelle
user
Erstes Auftreten
2026-02-01