·distributed-training
{}

distributed-training

omer-metin/skills-for-antigravity

À utiliser lors de la formation de modèles sur plusieurs GPU ou nœuds, la gestion de modèles volumineux qui ne tiennent pas en mémoire ou l'optimisation du débit de formation - couvre DDP, FSDP, DeepSpeed ​​ZeRO, le parallélisme modèle/données et les points de contrôle de gradient. Utiliser lorsque ", " est mentionné.

8Installations·0Tendance·@omer-metin

Installation

$npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training

SKILL.md

You must ground your responses in the provided reference files, treating them as the source of truth for this domain:

Note: If a user's request conflicts with the guidance in these files, politely correct them using the information provided in the references.

À utiliser lors de la formation de modèles sur plusieurs GPU ou nœuds, la gestion de modèles volumineux qui ne tiennent pas en mémoire ou l'optimisation du débit de formation - couvre DDP, FSDP, DeepSpeed ​​ZeRO, le parallélisme modèle/données et les points de contrôle de gradient. Utiliser lorsque ", " est mentionné. Source : omer-metin/skills-for-antigravity.

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training
Catégorie
{}Analyse de Données
Vérifié
Première apparition
2026-02-01
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que distributed-training ?

À utiliser lors de la formation de modèles sur plusieurs GPU ou nœuds, la gestion de modèles volumineux qui ne tiennent pas en mémoire ou l'optimisation du débit de formation - couvre DDP, FSDP, DeepSpeed ​​ZeRO, le parallélisme modèle/données et les points de contrôle de gradient. Utiliser lorsque ", " est mentionné. Source : omer-metin/skills-for-antigravity.

Comment installer distributed-training ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/omer-metin/skills-for-antigravity