·distributed-training
{}

distributed-training

Da utilizzare per l'addestramento di modelli su più GPU o nodi, per la gestione di modelli di grandi dimensioni che non rientrano nella memoria o per l'ottimizzazione del throughput dell'addestramento: copre DDP, FSDP, DeepSpeed ​​ZeRO, parallelismo modello/dati e checkpoint del gradiente. Utilizzare quando "," menzionato.

9Installazioni·0Tendenza·@omer-metin

Installazione

$npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training

Come installare distributed-training

Installa rapidamente la skill AI distributed-training nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: omer-metin/skills-for-antigravity.

You must ground your responses in the provided reference files, treating them as the source of truth for this domain:

Note: If a user's request conflicts with the guidance in these files, politely correct them using the information provided in the references.

Da utilizzare per l'addestramento di modelli su più GPU o nodi, per la gestione di modelli di grandi dimensioni che non rientrano nella memoria o per l'ottimizzazione del throughput dell'addestramento: copre DDP, FSDP, DeepSpeed ​​ZeRO, parallelismo modello/dati e checkpoint del gradiente. Utilizzare quando "," menzionato. Fonte: omer-metin/skills-for-antigravity.

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training
Categoria
{}Analisi
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-10

Browse more skills from omer-metin/skills-for-antigravity

Risposte rapide

Che cos'è distributed-training?

Da utilizzare per l'addestramento di modelli su più GPU o nodi, per la gestione di modelli di grandi dimensioni che non rientrano nella memoria o per l'ottimizzazione del throughput dell'addestramento: copre DDP, FSDP, DeepSpeed ​​ZeRO, parallelismo modello/dati e checkpoint del gradiente. Utilizzare quando "," menzionato. Fonte: omer-metin/skills-for-antigravity.

Come installo distributed-training?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/omer-metin/skills-for-antigravity