·training-llms-megatron
</>

training-llms-megatron

تدريب نماذج اللغات الكبيرة (معلمات 2B-462B) باستخدام NVIDIA Megatron-Core مع إستراتيجيات التوازي المتقدمة. يُستخدم عندما تحتاج نماذج التدريب > معلمات 1B إلى أقصى قدر من كفاءة وحدة معالجة الرسومات (47% MFU على H100)، أو تتطلب موتر/خط أنابيب/تسلسل/سياق/توازي خبير. إطار عمل جاهز للإنتاج يستخدم في Nemotron وLLaMA وDeepSeek.

26التثبيتات·0الرائج·@ovachiever

التثبيت

$npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron

كيفية تثبيت training-llms-megatron

ثبّت مهارة الذكاء الاصطناعي training-llms-megatron بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: ovachiever/droid-tings.

Megatron-Core trains LLMs from 2B to 462B parameters with up to 47% Model FLOP Utilization on H100 GPUs through advanced parallelism strategies.

| Model Size | GPUs | Tensor Parallel | Pipeline Parallel | Data Parallel | Context Parallel |

| 7B | 8 | 1 | 1 | 8 | 1 | | 13B | 8 | 2 | 1 | 4 | 1 | | 70B | 64 | 4 | 4 | 4 | 1 | | 405B | 128 | 8 | 8 | 2 | 2 |

تدريب نماذج اللغات الكبيرة (معلمات 2B-462B) باستخدام NVIDIA Megatron-Core مع إستراتيجيات التوازي المتقدمة. يُستخدم عندما تحتاج نماذج التدريب > معلمات 1B إلى أقصى قدر من كفاءة وحدة معالجة الرسومات (47% MFU على H100)، أو تتطلب موتر/خط أنابيب/تسلسل/سياق/توازي خبير. إطار عمل جاهز للإنتاج يستخدم في Nemotron وLLaMA وDeepSeek. المصدر: ovachiever/droid-tings.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-03-03
آخر تحديث
2026-03-10

Browse more skills from ovachiever/droid-tings

إجابات سريعة

ما هي training-llms-megatron؟

تدريب نماذج اللغات الكبيرة (معلمات 2B-462B) باستخدام NVIDIA Megatron-Core مع إستراتيجيات التوازي المتقدمة. يُستخدم عندما تحتاج نماذج التدريب > معلمات 1B إلى أقصى قدر من كفاءة وحدة معالجة الرسومات (47% MFU على H100)، أو تتطلب موتر/خط أنابيب/تسلسل/سياق/توازي خبير. إطار عمل جاهز للإنتاج يستخدم في Nemotron وLLaMA وDeepSeek. المصدر: ovachiever/droid-tings.

كيف أثبّت training-llms-megatron؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/ovachiever/droid-tings --skill training-llms-megatron بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/ovachiever/droid-tings