·training-llms-megatron
</>

training-llms-megatron

Entraîne des modèles de langage volumineux (paramètres 2B-462B) à l'aide de NVIDIA Megatron-Core avec des stratégies de parallélisme avancées. À utiliser lors de l'entraînement de modèles > 1 B de paramètres, nécessitant une efficacité GPU maximale (47 % MFU sur H100) ou nécessitant un tenseur/pipeline/séquence/contexte/parallélisme expert. Framework prêt pour la production utilisé pour Nemotron, LLaMA, DeepSeek.

26Installations·0Tendance·@ovachiever

Installation

$npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron

Comment installer training-llms-megatron

Installez rapidement le skill IA training-llms-megatron dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : ovachiever/droid-tings.

Megatron-Core trains LLMs from 2B to 462B parameters with up to 47% Model FLOP Utilization on H100 GPUs through advanced parallelism strategies.

| Model Size | GPUs | Tensor Parallel | Pipeline Parallel | Data Parallel | Context Parallel |

| 7B | 8 | 1 | 1 | 8 | 1 | | 13B | 8 | 2 | 1 | 4 | 1 | | 70B | 64 | 4 | 4 | 4 | 1 | | 405B | 128 | 8 | 8 | 2 | 2 |

Entraîne des modèles de langage volumineux (paramètres 2B-462B) à l'aide de NVIDIA Megatron-Core avec des stratégies de parallélisme avancées. À utiliser lors de l'entraînement de modèles > 1 B de paramètres, nécessitant une efficacité GPU maximale (47 % MFU sur H100) ou nécessitant un tenseur/pipeline/séquence/contexte/parallélisme expert. Framework prêt pour la production utilisé pour Nemotron, LLaMA, DeepSeek. Source : ovachiever/droid-tings.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron
Catégorie
</>Développement
Vérifié
Première apparition
2026-03-03
Mis à jour
2026-03-10

Browse more skills from ovachiever/droid-tings

Réponses rapides

Qu'est-ce que training-llms-megatron ?

Entraîne des modèles de langage volumineux (paramètres 2B-462B) à l'aide de NVIDIA Megatron-Core avec des stratégies de parallélisme avancées. À utiliser lors de l'entraînement de modèles > 1 B de paramètres, nécessitant une efficacité GPU maximale (47 % MFU sur H100) ou nécessitant un tenseur/pipeline/séquence/contexte/parallélisme expert. Framework prêt pour la production utilisé pour Nemotron, LLaMA, DeepSeek. Source : ovachiever/droid-tings.

Comment installer training-llms-megatron ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/ovachiever/droid-tings