·distributed-llm-pretraining-torchtitan
</>

distributed-llm-pretraining-torchtitan

Fornisce preformazione LLM distribuito nativo di PyTorch utilizzando torchtitan con parallelismo 4D (FSDP2, TP, PP, CP). Da utilizzare durante il pre-addestramento di Llama 3.1, DeepSeek V3 o modelli personalizzati su scala da 8 a 512+ GPU con Float8, torch.compile e checkpoint distribuito.

37Installazioni·2Tendenza·@orchestra-research

Installazione

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill distributed-llm-pretraining-torchtitan

Come installare distributed-llm-pretraining-torchtitan

Installa rapidamente la skill AI distributed-llm-pretraining-torchtitan nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/orchestra-research/ai-research-skills --skill distributed-llm-pretraining-torchtitan
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: orchestra-research/ai-research-skills.

TorchTitan is PyTorch's official platform for large-scale LLM pretraining with composable 4D parallelism (FSDP2, TP, PP, CP), achieving 65%+ speedups over baselines on H100 GPUs.

| Llama 3.1 | 8B, 70B, 405B | Production | | Llama 4 | Various | Experimental | | DeepSeek V3 | 16B, 236B, 671B (MoE) | Experimental | | GPT-OSS | 20B, 120B (MoE) | Experimental | | Qwen 3 | Various | Experimental | | Flux | Diffusion | Experimental |

| Model | GPUs | Parallelism | TPS/GPU | Techniques |

Fornisce preformazione LLM distribuito nativo di PyTorch utilizzando torchtitan con parallelismo 4D (FSDP2, TP, PP, CP). Da utilizzare durante il pre-addestramento di Llama 3.1, DeepSeek V3 o modelli personalizzati su scala da 8 a 512+ GPU con Float8, torch.compile e checkpoint distribuito. Fonte: orchestra-research/ai-research-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/orchestra-research/ai-research-skills --skill distributed-llm-pretraining-torchtitan
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-11
Aggiornato
2026-03-10

Browse more skills from orchestra-research/ai-research-skills

Risposte rapide

Che cos'è distributed-llm-pretraining-torchtitan?

Fornisce preformazione LLM distribuito nativo di PyTorch utilizzando torchtitan con parallelismo 4D (FSDP2, TP, PP, CP). Da utilizzare durante il pre-addestramento di Llama 3.1, DeepSeek V3 o modelli personalizzati su scala da 8 a 512+ GPU con Float8, torch.compile e checkpoint distribuito. Fonte: orchestra-research/ai-research-skills.

Come installo distributed-llm-pretraining-torchtitan?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/orchestra-research/ai-research-skills --skill distributed-llm-pretraining-torchtitan Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/orchestra-research/ai-research-skills