pufferlib
✓이 기술은 고성능 RL 교육, 사용자 정의 환경 개발, 벡터화된 병렬 시뮬레이션, 다중 에이전트 시스템 또는 기존 RL 환경(Gymnasium, PettingZoo, Atari, Procgen 등)과의 통합을 포함한 강화 학습 작업을 수행할 때 사용해야 합니다. PPO 교육 구현, PufferEnv 환경 생성, RL 성능 최적화 또는 CNN/LSTM을 사용한 정책 개발에 이 기술을 사용하세요.
SKILL.md
PufferLib is a high-performance reinforcement learning library designed for fast parallel environment simulation and training. It achieves training at millions of steps per second through optimized vectorization, native multi-agent support, and efficient PPO implementation (PuffeRL). The library provides the Ocean suite of 20+ environments and seamless integration with Gymnasium, PettingZoo, and specialized RL fra...
PuffeRL is PufferLib's optimized PPO+LSTM training algorithm achieving 1M-4M steps/second.
Use the template script: scripts/envtemplate.py provides complete single-agent and multi-agent environment templates with examples of:
이 기술은 고성능 RL 교육, 사용자 정의 환경 개발, 벡터화된 병렬 시뮬레이션, 다중 에이전트 시스템 또는 기존 RL 환경(Gymnasium, PettingZoo, Atari, Procgen 등)과의 통합을 포함한 강화 학습 작업을 수행할 때 사용해야 합니다. PPO 교육 구현, PufferEnv 환경 생성, RL 성능 최적화 또는 CNN/LSTM을 사용한 정책 개발에 이 기술을 사용하세요. 출처: jackspace/claudeskillz.
인용 가능한 정보
AI/검색 인용용 안정적인 필드와 명령어.
- 설치 명령어
npx skills add https://github.com/jackspace/claudeskillz --skill pufferlib- 카테고리
- </>개발 도구
- 인증됨
- ✓
- 최초 등록
- 2026-02-17
- 업데이트
- 2026-02-18
빠른 답변
pufferlib이란?
이 기술은 고성능 RL 교육, 사용자 정의 환경 개발, 벡터화된 병렬 시뮬레이션, 다중 에이전트 시스템 또는 기존 RL 환경(Gymnasium, PettingZoo, Atari, Procgen 등)과의 통합을 포함한 강화 학습 작업을 수행할 때 사용해야 합니다. PPO 교육 구현, PufferEnv 환경 생성, RL 성능 최적화 또는 CNN/LSTM을 사용한 정책 개발에 이 기술을 사용하세요. 출처: jackspace/claudeskillz.
pufferlib 설치 방법은?
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/jackspace/claudeskillz --skill pufferlib 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다
소스 저장소는 어디인가요?
https://github.com/jackspace/claudeskillz
상세
- 카테고리
- </>개발 도구
- 출처
- skills.sh
- 최초 등록
- 2026-02-17