pufferlib
✓このスキルは、高性能 RL トレーニング、カスタム環境開発、ベクトル化された並列シミュレーション、マルチエージェント システム、または既存の RL 環境 (Gymnasium、PettingZoo、Atari、Procgen など) との統合などの強化学習タスクを扱うときに使用する必要があります。このスキルは、PPO トレーニングの実装、PufferEnv 環境の作成、RL パフォーマンスの最適化、または CNN/LSTM を使用したポリシーの開発に使用します。
SKILL.md
PufferLib is a high-performance reinforcement learning library designed for fast parallel environment simulation and training. It achieves training at millions of steps per second through optimized vectorization, native multi-agent support, and efficient PPO implementation (PuffeRL). The library provides the Ocean suite of 20+ environments and seamless integration with Gymnasium, PettingZoo, and specialized RL fra...
PuffeRL is PufferLib's optimized PPO+LSTM training algorithm achieving 1M-4M steps/second.
Use the template script: scripts/envtemplate.py provides complete single-agent and multi-agent environment templates with examples of:
このスキルは、高性能 RL トレーニング、カスタム環境開発、ベクトル化された並列シミュレーション、マルチエージェント システム、または既存の RL 環境 (Gymnasium、PettingZoo、Atari、Procgen など) との統合などの強化学習タスクを扱うときに使用する必要があります。このスキルは、PPO トレーニングの実装、PufferEnv 環境の作成、RL パフォーマンスの最適化、または CNN/LSTM を使用したポリシーの開発に使用します。 ソース: ovachiever/droid-tings。
引用可能な情報
AI/検索での引用用の安定したフィールドとコマンド。
- インストールコマンド
npx skills add https://github.com/ovachiever/droid-tings --skill pufferlib- カテゴリ
- </>開発ツール
- 認証済み
- ✓
- 初回登録
- 2026-02-01
- 更新日
- 2026-02-18
クイックアンサー
pufferlib とは?
このスキルは、高性能 RL トレーニング、カスタム環境開発、ベクトル化された並列シミュレーション、マルチエージェント システム、または既存の RL 環境 (Gymnasium、PettingZoo、Atari、Procgen など) との統合などの強化学習タスクを扱うときに使用する必要があります。このスキルは、PPO トレーニングの実装、PufferEnv 環境の作成、RL パフォーマンスの最適化、または CNN/LSTM を使用したポリシーの開発に使用します。 ソース: ovachiever/droid-tings。
pufferlib のインストール方法は?
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/ovachiever/droid-tings --skill pufferlib インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります
ソースリポジトリはどこですか?
https://github.com/ovachiever/droid-tings
詳細
- カテゴリ
- </>開発ツール
- ソース
- skills.sh
- 初回登録
- 2026-02-01