·distributed-llm-pretraining-torchtitan
</>

distributed-llm-pretraining-torchtitan

يوفر تدريبًا مسبقًا على LLM موزعًا على PyTorch باستخدام torchtitan مع التوازي رباعي الأبعاد (FSDP2، TP، PP، CP). استخدمه عند التدريب المسبق على Llama 3.1 أو DeepSeek V3 أو النماذج المخصصة بمقياس من 8 إلى 512+ وحدة معالجة رسومات مع Float8 وtorch.compile ونقاط التفتيش الموزعة.

39التثبيتات·4الرائج·@orchestra-research

التثبيت

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill distributed-llm-pretraining-torchtitan

كيفية تثبيت distributed-llm-pretraining-torchtitan

ثبّت مهارة الذكاء الاصطناعي distributed-llm-pretraining-torchtitan بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/orchestra-research/ai-research-skills --skill distributed-llm-pretraining-torchtitan
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: orchestra-research/ai-research-skills.

TorchTitan is PyTorch's official platform for large-scale LLM pretraining with composable 4D parallelism (FSDP2, TP, PP, CP), achieving 65%+ speedups over baselines on H100 GPUs.

| Llama 3.1 | 8B, 70B, 405B | Production | | Llama 4 | Various | Experimental | | DeepSeek V3 | 16B, 236B, 671B (MoE) | Experimental | | GPT-OSS | 20B, 120B (MoE) | Experimental | | Qwen 3 | Various | Experimental | | Flux | Diffusion | Experimental |

| Model | GPUs | Parallelism | TPS/GPU | Techniques |

يوفر تدريبًا مسبقًا على LLM موزعًا على PyTorch باستخدام torchtitan مع التوازي رباعي الأبعاد (FSDP2، TP، PP، CP). استخدمه عند التدريب المسبق على Llama 3.1 أو DeepSeek V3 أو النماذج المخصصة بمقياس من 8 إلى 512+ وحدة معالجة رسومات مع Float8 وtorch.compile ونقاط التفتيش الموزعة. المصدر: orchestra-research/ai-research-skills.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/orchestra-research/ai-research-skills --skill distributed-llm-pretraining-torchtitan
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-11
آخر تحديث
2026-03-11

Browse more skills from orchestra-research/ai-research-skills

إجابات سريعة

ما هي distributed-llm-pretraining-torchtitan؟

يوفر تدريبًا مسبقًا على LLM موزعًا على PyTorch باستخدام torchtitan مع التوازي رباعي الأبعاد (FSDP2، TP، PP، CP). استخدمه عند التدريب المسبق على Llama 3.1 أو DeepSeek V3 أو النماذج المخصصة بمقياس من 8 إلى 512+ وحدة معالجة رسومات مع Float8 وtorch.compile ونقاط التفتيش الموزعة. المصدر: orchestra-research/ai-research-skills.

كيف أثبّت distributed-llm-pretraining-torchtitan؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/orchestra-research/ai-research-skills --skill distributed-llm-pretraining-torchtitan بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/orchestra-research/ai-research-skills

التفاصيل

الفئة
</>أدوات التطوير
المصدر
skills.sh
أول ظهور
2026-02-11