stable-baselines3
✓このスキルは、RL エージェント (PPO、SAC、DQN、TD3、DDPG、A2C など) のトレーニング、カスタム ジム環境の作成、監視と制御のためのコールバックの実装、並列トレーニングのためのベクトル化された環境の使用、深い RL ワークフローとの統合などの強化学習タスクに使用します。このスキルは、ユーザーが RL アルゴリズムの実装、エージェント トレーニング、環境設計、または RL 実験を要求するときに使用する必要があります。
SKILL.md
Stable Baselines3 (SB3) is a PyTorch-based library providing reliable implementations of reinforcement learning algorithms. This skill provides comprehensive guidance for training RL agents, creating custom environments, implementing callbacks, and optimizing training workflows using SB3's unified API.
Algorithm Selection: Use references/algorithms.md for detailed algorithm characteristics and selection guidance. Quick reference:
See scripts/trainrlagent.py for a complete training template with best practices.
このスキルは、RL エージェント (PPO、SAC、DQN、TD3、DDPG、A2C など) のトレーニング、カスタム ジム環境の作成、監視と制御のためのコールバックの実装、並列トレーニングのためのベクトル化された環境の使用、深い RL ワークフローとの統合などの強化学習タスクに使用します。このスキルは、ユーザーが RL アルゴリズムの実装、エージェント トレーニング、環境設計、または RL 実験を要求するときに使用する必要があります。 ソース: ovachiever/droid-tings。
引用可能な情報
AI/検索での引用用の安定したフィールドとコマンド。
- インストールコマンド
npx skills add https://github.com/ovachiever/droid-tings --skill stable-baselines3- カテゴリ
- </>開発ツール
- 認証済み
- ✓
- 初回登録
- 2026-02-01
- 更新日
- 2026-02-18
クイックアンサー
stable-baselines3 とは?
このスキルは、RL エージェント (PPO、SAC、DQN、TD3、DDPG、A2C など) のトレーニング、カスタム ジム環境の作成、監視と制御のためのコールバックの実装、並列トレーニングのためのベクトル化された環境の使用、深い RL ワークフローとの統合などの強化学習タスクに使用します。このスキルは、ユーザーが RL アルゴリズムの実装、エージェント トレーニング、環境設計、または RL 実験を要求するときに使用する必要があります。 ソース: ovachiever/droid-tings。
stable-baselines3 のインストール方法は?
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/ovachiever/droid-tings --skill stable-baselines3 インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります
ソースリポジトリはどこですか?
https://github.com/ovachiever/droid-tings
詳細
- カテゴリ
- </>開発ツール
- ソース
- skills.sh
- 初回登録
- 2026-02-01