·training-llms-megatron
</>

training-llms-megatron

Обучает большие языковые модели (параметры 2B-462B) с использованием NVIDIA Megatron-Core с расширенными стратегиями параллелизма. Используйте при обучении моделей с параметрами >1B, когда требуется максимальная эффективность графического процессора (47% MFU на H100) или требуется тензорный/конвейерный/последовательный/контекстный/экспертный параллелизм. Готовый к производству фреймворк, используемый для Nemotron, LLaMA, DeepSeek.

26Установки·0Тренд·@ovachiever

Установка

$npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron

Как установить training-llms-megatron

Быстро установите AI-навык training-llms-megatron в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: ovachiever/droid-tings.

Megatron-Core trains LLMs from 2B to 462B parameters with up to 47% Model FLOP Utilization on H100 GPUs through advanced parallelism strategies.

| Model Size | GPUs | Tensor Parallel | Pipeline Parallel | Data Parallel | Context Parallel |

| 7B | 8 | 1 | 1 | 8 | 1 | | 13B | 8 | 2 | 1 | 4 | 1 | | 70B | 64 | 4 | 4 | 4 | 1 | | 405B | 128 | 8 | 8 | 2 | 2 |

Обучает большие языковые модели (параметры 2B-462B) с использованием NVIDIA Megatron-Core с расширенными стратегиями параллелизма. Используйте при обучении моделей с параметрами >1B, когда требуется максимальная эффективность графического процессора (47% MFU на H100) или требуется тензорный/конвейерный/последовательный/контекстный/экспертный параллелизм. Готовый к производству фреймворк, используемый для Nemotron, LLaMA, DeepSeek. Источник: ovachiever/droid-tings.

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron
Источник
ovachiever/droid-tings
Категория
</>Разработка
Проверено
Впервые замечено
2026-03-03
Обновлено
2026-03-10

Browse more skills from ovachiever/droid-tings

Короткие ответы

Что такое training-llms-megatron?

Обучает большие языковые модели (параметры 2B-462B) с использованием NVIDIA Megatron-Core с расширенными стратегиями параллелизма. Используйте при обучении моделей с параметрами >1B, когда требуется максимальная эффективность графического процессора (47% MFU на H100) или требуется тензорный/конвейерный/последовательный/контекстный/экспертный параллелизм. Готовый к производству фреймворк, используемый для Nemotron, LLaMA, DeepSeek. Источник: ovachiever/droid-tings.

Как установить training-llms-megatron?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/ovachiever/droid-tings