·distributed-training
{}

distributed-training

omer-metin/skills-for-antigravity

Úselo cuando entrene modelos en múltiples GPU o nodos, maneje modelos grandes que no caben en la memoria u optimice el rendimiento del entrenamiento: cubre DDP, FSDP, DeepSpeed ​​ZeRO, paralelismo de modelo/datos y puntos de control de gradiente. Úselo cuando se mencione ",".

8Instalaciones·0Tendencia·@omer-metin

Instalación

$npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training

SKILL.md

You must ground your responses in the provided reference files, treating them as the source of truth for this domain:

Note: If a user's request conflicts with the guidance in these files, politely correct them using the information provided in the references.

Úselo cuando entrene modelos en múltiples GPU o nodos, maneje modelos grandes que no caben en la memoria u optimice el rendimiento del entrenamiento: cubre DDP, FSDP, DeepSpeed ​​ZeRO, paralelismo de modelo/datos y puntos de control de gradiente. Úselo cuando se mencione ",". Fuente: omer-metin/skills-for-antigravity.

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training
Categoría
{}Análisis de Datos
Verificado
Primera vez visto
2026-02-01
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es distributed-training?

Úselo cuando entrene modelos en múltiples GPU o nodos, maneje modelos grandes que no caben en la memoria u optimice el rendimiento del entrenamiento: cubre DDP, FSDP, DeepSpeed ​​ZeRO, paralelismo de modelo/datos y puntos de control de gradiente. Úselo cuando se mencione ",". Fuente: omer-metin/skills-for-antigravity.

¿Cómo instalo distributed-training?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/omer-metin/skills-for-antigravity