distributed-training
✓À utiliser lors de la formation de modèles sur plusieurs GPU ou nœuds, la gestion de modèles volumineux qui ne tiennent pas en mémoire ou l'optimisation du débit de formation - couvre DDP, FSDP, DeepSpeed ZeRO, le parallélisme modèle/données et les points de contrôle de gradient. Utiliser lorsque ", " est mentionné.
Installation
SKILL.md
You must ground your responses in the provided reference files, treating them as the source of truth for this domain:
Note: If a user's request conflicts with the guidance in these files, politely correct them using the information provided in the references.
À utiliser lors de la formation de modèles sur plusieurs GPU ou nœuds, la gestion de modèles volumineux qui ne tiennent pas en mémoire ou l'optimisation du débit de formation - couvre DDP, FSDP, DeepSpeed ZeRO, le parallélisme modèle/données et les points de contrôle de gradient. Utiliser lorsque ", " est mentionné. Source : omer-metin/skills-for-antigravity.
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training- Catégorie
- {}Analyse de Données
- Vérifié
- ✓
- Première apparition
- 2026-02-01
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que distributed-training ?
À utiliser lors de la formation de modèles sur plusieurs GPU ou nœuds, la gestion de modèles volumineux qui ne tiennent pas en mémoire ou l'optimisation du débit de formation - couvre DDP, FSDP, DeepSpeed ZeRO, le parallélisme modèle/données et les points de contrôle de gradient. Utiliser lorsque ", " est mentionné. Source : omer-metin/skills-for-antigravity.
Comment installer distributed-training ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/omer-metin/skills-for-antigravity
Détails
- Catégorie
- {}Analyse de Données
- Source
- skills.sh
- Première apparition
- 2026-02-01