training-llms-megatron とは?
高度な並列処理戦略を備えた NVIDIA Megatron-Core を使用して、大規模な言語モデル (2B-462B パラメーター) をトレーニングします。 1B パラメーターを超えるモデルをトレーニングする場合、最大の GPU 効率 (H100 で 47% MFU) が必要な場合、またはテンソル/パイプライン/シーケンス/コンテキスト/エキスパート並列処理が必要な場合に使用します。 Nemotron、LLaMA、DeepSeek に使用される実稼働対応フレームワーク。 ソース: ovachiever/droid-tings。