pytorch-fsdp
✓PyTorch FSDP를 사용한 완전 샤딩된 데이터 병렬 교육에 대한 전문가 지침 - 매개변수 샤딩, 혼합 정밀도, CPU 오프로딩, FSDP2
SKILL.md
Comprehensive assistance with pytorch-fsdp development, generated from official documentation.
Pattern 1: Generic Join Context Manager# Created On: Jun 06, 2025 | Last Updated On: Jun 06, 2025 The generic join context manager facilitates distributed training on uneven inputs. This page outlines the API of the relevant classes: Join, Joinable, and JoinHook. For a tutorial, see Distributed Training with Uneven Inputs Using the Join Context Manager. class torch.distributed.algorithms.Join(joinables, enable=Tru...
Pattern 2: Distributed communication package - torch.distributed# Created On: Jul 12, 2017 | Last Updated On: Sep 04, 2025 Note Please refer to PyTorch Distributed Overview for a brief introduction to all features related to distributed training. Backends# torch.distributed supports four built-in backends, each with different capabilities. The table below shows which functions are available for use with a CPU or G...
인용 가능한 정보
AI/검색 인용용 안정적인 필드와 명령어.
- 설치 명령어
npx skills add https://github.com/ovachiever/droid-tings --skill pytorch-fsdp- 카테고리
- {}데이터 분석
- 인증됨
- ✓
- 최초 등록
- 2026-02-01
- 업데이트
- 2026-02-18
빠른 답변
pytorch-fsdp이란?
PyTorch FSDP를 사용한 완전 샤딩된 데이터 병렬 교육에 대한 전문가 지침 - 매개변수 샤딩, 혼합 정밀도, CPU 오프로딩, FSDP2 출처: ovachiever/droid-tings.
pytorch-fsdp 설치 방법은?
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/ovachiever/droid-tings --skill pytorch-fsdp 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다
소스 저장소는 어디인가요?
https://github.com/ovachiever/droid-tings
상세
- 카테고리
- {}데이터 분석
- 출처
- skills.sh
- 최초 등록
- 2026-02-01