·moe-training

تدريب نماذج مزيج من الخبراء (MoE) باستخدام DeepSpeed ​​أو HuggingFace. يُستخدم عند تدريب نماذج واسعة النطاق ذات حوسبة محدودة (تخفيض التكلفة بمقدار 5 × مقابل النماذج الكثيفة)، أو تنفيذ بنيات متفرقة مثل Mixtral 8x7B أو DeepSeek-V3، أو توسيع سعة النموذج دون زيادة حوسبة متناسبة. يغطي بنيات وزارة البيئة، وآليات التوجيه، وموازنة التحميل، والتوازي الخبراء، وتحسين الاستدلال.

40التثبيتات·2الرائج·@orchestra-research

التثبيت

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill moe-training

كيفية تثبيت moe-training

ثبّت مهارة الذكاء الاصطناعي moe-training بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/orchestra-research/ai-research-skills --skill moe-training
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: orchestra-research/ai-research-skills.

Notable MoE Models: Mixtral 8x7B (Mistral AI), DeepSeek-V3, Switch Transformers (Google), GLaM (Google), NLLB-MoE (Meta)

تدريب نماذج مزيج من الخبراء (MoE) باستخدام DeepSpeed ​​أو HuggingFace. يُستخدم عند تدريب نماذج واسعة النطاق ذات حوسبة محدودة (تخفيض التكلفة بمقدار 5 × مقابل النماذج الكثيفة)، أو تنفيذ بنيات متفرقة مثل Mixtral 8x7B أو DeepSeek-V3، أو توسيع سعة النموذج دون زيادة حوسبة متناسبة. يغطي بنيات وزارة البيئة، وآليات التوجيه، وموازنة التحميل، والتوازي الخبراء، وتحسين الاستدلال. المصدر: orchestra-research/ai-research-skills.

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/orchestra-research/ai-research-skills --skill moe-training بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

معتمدة أمنيا لكود موثوق وآمن تثبيت بنقرة واحدة مع إعداد مبسّط متوافقة مع Claude Code وCursor وOpenClaw والمزيد

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/orchestra-research/ai-research-skills --skill moe-training
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-11
آخر تحديث
2026-03-10

Browse more skills from orchestra-research/ai-research-skills

إجابات سريعة

ما هي moe-training؟

تدريب نماذج مزيج من الخبراء (MoE) باستخدام DeepSpeed ​​أو HuggingFace. يُستخدم عند تدريب نماذج واسعة النطاق ذات حوسبة محدودة (تخفيض التكلفة بمقدار 5 × مقابل النماذج الكثيفة)، أو تنفيذ بنيات متفرقة مثل Mixtral 8x7B أو DeepSeek-V3، أو توسيع سعة النموذج دون زيادة حوسبة متناسبة. يغطي بنيات وزارة البيئة، وآليات التوجيه، وموازنة التحميل، والتوازي الخبراء، وتحسين الاستدلال. المصدر: orchestra-research/ai-research-skills.

كيف أثبّت moe-training؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/orchestra-research/ai-research-skills --skill moe-training بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/orchestra-research/ai-research-skills

التفاصيل

الفئة
</>أدوات التطوير
المصدر
skills.sh
أول ظهور
2026-02-11