·distributed-training
{}

distributed-training

omer-metin/skills-for-antigravity

複数の GPU またはノード間でモデルをトレーニングする場合、メモリに収まらない大規模なモデルを処理する場合、またはトレーニング スループットを最適化する場合に使用します。DDP、FSDP、DeepSpeed ZeRO、モデル/データの並列処理、および勾配チェックポイント処理をカバーします。「,」が言及されている場合に使用します。

8インストール·0トレンド·@omer-metin

インストール

$npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training

SKILL.md

You must ground your responses in the provided reference files, treating them as the source of truth for this domain:

Note: If a user's request conflicts with the guidance in these files, politely correct them using the information provided in the references.

複数の GPU またはノード間でモデルをトレーニングする場合、メモリに収まらない大規模なモデルを処理する場合、またはトレーニング スループットを最適化する場合に使用します。DDP、FSDP、DeepSpeed ZeRO、モデル/データの並列処理、および勾配チェックポイント処理をカバーします。「,」が言及されている場合に使用します。 ソース: omer-metin/skills-for-antigravity。

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります

原文を見る

引用可能な情報

AI/検索での引用用の安定したフィールドとコマンド。

インストールコマンド
npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training
カテゴリ
{}データ分析
認証済み
初回登録
2026-02-01
更新日
2026-02-18

クイックアンサー

distributed-training とは?

複数の GPU またはノード間でモデルをトレーニングする場合、メモリに収まらない大規模なモデルを処理する場合、またはトレーニング スループットを最適化する場合に使用します。DDP、FSDP、DeepSpeed ZeRO、モデル/データの並列処理、および勾配チェックポイント処理をカバーします。「,」が言及されている場合に使用します。 ソース: omer-metin/skills-for-antigravity。

distributed-training のインストール方法は?

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/omer-metin/skills-for-antigravity --skill distributed-training インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります

ソースリポジトリはどこですか?

https://github.com/omer-metin/skills-for-antigravity