·megatron-memory-estimator
</>

megatron-memory-estimator

yzlnew/infra-skills

Megatron 기반 MoE(Mixture of Experts) 및 밀도 모델에 대한 GPU 메모리 사용량을 추정합니다. 사용자가 (1) HuggingFace 모델 구성(DeepSeek-V3, Qwen 등)에서 메모리를 추정하고, (2) 훈련을 위한 GPU 리소스 할당을 계획하고, (3) 다양한 병렬 처리 전략(TP/PP/EP/CP)을 비교하고, (4) 모델이 사용 가능한 GPU 메모리에 적합한지 확인하거나, (5) 메모리 효율성을 위해 훈련 구성을 최적화해야 하는 경우에 사용합니다.

5설치·0트렌드·@yzlnew

설치

$npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator

SKILL.md

Estimate GPU memory usage for Megatron-based models directly from HuggingFace configs or custom specifications.

Automatically converts HuggingFace configs to Megatron format and estimates memory.

Because this tool relies on Megatron-LM components, you need to add both the tool directory and Megatron-LM to your PYTHONPATH.

Megatron 기반 MoE(Mixture of Experts) 및 밀도 모델에 대한 GPU 메모리 사용량을 추정합니다. 사용자가 (1) HuggingFace 모델 구성(DeepSeek-V3, Qwen 등)에서 메모리를 추정하고, (2) 훈련을 위한 GPU 리소스 할당을 계획하고, (3) 다양한 병렬 처리 전략(TP/PP/EP/CP)을 비교하고, (4) 모델이 사용 가능한 GPU 메모리에 적합한지 확인하거나, (5) 메모리 효율성을 위해 훈련 구성을 최적화해야 하는 경우에 사용합니다. 출처: yzlnew/infra-skills.

원본 보기

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator
카테고리
</>개발 도구
인증됨
최초 등록
2026-02-01
업데이트
2026-02-18

빠른 답변

megatron-memory-estimator이란?

Megatron 기반 MoE(Mixture of Experts) 및 밀도 모델에 대한 GPU 메모리 사용량을 추정합니다. 사용자가 (1) HuggingFace 모델 구성(DeepSeek-V3, Qwen 등)에서 메모리를 추정하고, (2) 훈련을 위한 GPU 리소스 할당을 계획하고, (3) 다양한 병렬 처리 전략(TP/PP/EP/CP)을 비교하고, (4) 모델이 사용 가능한 GPU 메모리에 적합한지 확인하거나, (5) 메모리 효율성을 위해 훈련 구성을 최적화해야 하는 경우에 사용합니다. 출처: yzlnew/infra-skills.

megatron-memory-estimator 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/yzlnew/infra-skills --skill megatron-memory-estimator 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/yzlnew/infra-skills

상세

카테고리
</>개발 도구
출처
skills.sh
최초 등록
2026-02-01