megatron-memory-estimator
✓Megatron 기반 MoE(Mixture of Experts) 및 밀도 모델에 대한 GPU 메모리 사용량을 추정합니다. 사용자가 (1) HuggingFace 모델 구성(DeepSeek-V3, Qwen 등)에서 메모리를 추정하고, (2) 훈련을 위한 GPU 리소스 할당을 계획하고, (3) 다양한 병렬 처리 전략(TP/PP/EP/CP)을 비교하고, (4) 모델이 사용 가능한 GPU 메모리에 적합한지 확인하거나, (5) 메모리 효율성을 위해 훈련 구성을 최적화해야 하는 경우에 사용합니다.
SKILL.md
Estimate GPU memory usage for Megatron-based models directly from HuggingFace configs or custom specifications.
Automatically converts HuggingFace configs to Megatron format and estimates memory.
Because this tool relies on Megatron-LM components, you need to add both the tool directory and Megatron-LM to your PYTHONPATH.
Megatron 기반 MoE(Mixture of Experts) 및 밀도 모델에 대한 GPU 메모리 사용량을 추정합니다. 사용자가 (1) HuggingFace 모델 구성(DeepSeek-V3, Qwen 등)에서 메모리를 추정하고, (2) 훈련을 위한 GPU 리소스 할당을 계획하고, (3) 다양한 병렬 처리 전략(TP/PP/EP/CP)을 비교하고, (4) 모델이 사용 가능한 GPU 메모리에 적합한지 확인하거나, (5) 메모리 효율성을 위해 훈련 구성을 최적화해야 하는 경우에 사용합니다. 출처: yzlnew/infra-skills.
인용 가능한 정보
AI/검색 인용용 안정적인 필드와 명령어.
- 설치 명령어
npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator- 카테고리
- </>개발 도구
- 인증됨
- ✓
- 최초 등록
- 2026-02-01
- 업데이트
- 2026-02-18
빠른 답변
megatron-memory-estimator이란?
Megatron 기반 MoE(Mixture of Experts) 및 밀도 모델에 대한 GPU 메모리 사용량을 추정합니다. 사용자가 (1) HuggingFace 모델 구성(DeepSeek-V3, Qwen 등)에서 메모리를 추정하고, (2) 훈련을 위한 GPU 리소스 할당을 계획하고, (3) 다양한 병렬 처리 전략(TP/PP/EP/CP)을 비교하고, (4) 모델이 사용 가능한 GPU 메모리에 적합한지 확인하거나, (5) 메모리 효율성을 위해 훈련 구성을 최적화해야 하는 경우에 사용합니다. 출처: yzlnew/infra-skills.
megatron-memory-estimator 설치 방법은?
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다
소스 저장소는 어디인가요?
https://github.com/yzlnew/infra-skills
상세
- 카테고리
- </>개발 도구
- 출처
- skills.sh
- 최초 등록
- 2026-02-01