·moe-training
</>

moe-training

ovachiever/droid-tings

Entrene modelos de mezcla de expertos (MoE) utilizando DeepSpeed ​​o HuggingFace. Úselo al entrenar modelos a gran escala con computación limitada (reducción de costos 5 veces frente a modelos densos), implementar arquitecturas dispersas como Mixtral 8x7B o DeepSeek-V3, o escalar la capacidad del modelo sin un aumento de computación proporcional. Cubre arquitecturas MoE, mecanismos de enrutamiento, equilibrio de carga, paralelismo experto y optimización de inferencia.

21Instalaciones·0Tendencia·@ovachiever

Instalación

$npx skills add https://github.com/ovachiever/droid-tings --skill moe-training

SKILL.md

Notable MoE Models: Mixtral 8x7B (Mistral AI), DeepSeek-V3, Switch Transformers (Google), GLaM (Google), NLLB-MoE (Meta)

Entrene modelos de mezcla de expertos (MoE) utilizando DeepSpeed ​​o HuggingFace. Úselo al entrenar modelos a gran escala con computación limitada (reducción de costos 5 veces frente a modelos densos), implementar arquitecturas dispersas como Mixtral 8x7B o DeepSeek-V3, o escalar la capacidad del modelo sin un aumento de computación proporcional. Cubre arquitecturas MoE, mecanismos de enrutamiento, equilibrio de carga, paralelismo experto y optimización de inferencia. Fuente: ovachiever/droid-tings.

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/ovachiever/droid-tings --skill moe-training Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/ovachiever/droid-tings --skill moe-training
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-01
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es moe-training?

Entrene modelos de mezcla de expertos (MoE) utilizando DeepSpeed ​​o HuggingFace. Úselo al entrenar modelos a gran escala con computación limitada (reducción de costos 5 veces frente a modelos densos), implementar arquitecturas dispersas como Mixtral 8x7B o DeepSeek-V3, o escalar la capacidad del modelo sin un aumento de computación proporcional. Cubre arquitecturas MoE, mecanismos de enrutamiento, equilibrio de carga, paralelismo experto y optimización de inferencia. Fuente: ovachiever/droid-tings.

¿Cómo instalo moe-training?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/ovachiever/droid-tings --skill moe-training Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/ovachiever/droid-tings