·openrlhf-training
</>

openrlhf-training

Ray+vLLM アクセラレーションを備えた高性能 RLHF フレームワーク。大規模モデル (7B-70B+) の PPO、GRPO、RLOO、DPO トレーニングに使用します。 Ray、vLLM、ZeRO-3 に基づいて構築されています。分散アーキテクチャと GPU リソース共有により、DeepSpeedChat よりも 2 倍高速です。

28インストール·0トレンド·@ovachiever

インストール

$npx skills add https://github.com/ovachiever/droid-tings --skill openrlhf-training

openrlhf-training のインストール方法

コマンドラインで openrlhf-training AI スキルを開発環境にすばやくインストール

  1. ターミナルを開く: ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます
  2. インストールコマンドを実行: このコマンドをコピーして実行します: npx skills add https://github.com/ovachiever/droid-tings --skill openrlhf-training
  3. インストールを確認: インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります

ソース: ovachiever/droid-tings。

OpenRLHF is a Ray-based RLHF framework optimized for distributed training with vLLM inference acceleration.

Workflow 1: Full RLHF pipeline (SFT → Reward Model → PPO)

Hybrid Engine GPU sharing: See references/hybrid-engine.md for vLLM sleep mode, DeepSpeed sleep mode, and optimal node allocation.

Ray+vLLM アクセラレーションを備えた高性能 RLHF フレームワーク。大規模モデル (7B-70B+) の PPO、GRPO、RLOO、DPO トレーニングに使用します。 Ray、vLLM、ZeRO-3 に基づいて構築されています。分散アーキテクチャと GPU リソース共有により、DeepSpeedChat よりも 2 倍高速です。 ソース: ovachiever/droid-tings。

引用可能な情報

AI/検索での引用用の安定したフィールドとコマンド。

インストールコマンド
npx skills add https://github.com/ovachiever/droid-tings --skill openrlhf-training
カテゴリ
</>開発ツール
認証済み
初回登録
2026-03-03
更新日
2026-03-10

Browse more skills from ovachiever/droid-tings

クイックアンサー

openrlhf-training とは?

Ray+vLLM アクセラレーションを備えた高性能 RLHF フレームワーク。大規模モデル (7B-70B+) の PPO、GRPO、RLOO、DPO トレーニングに使用します。 Ray、vLLM、ZeRO-3 に基づいて構築されています。分散アーキテクチャと GPU リソース共有により、DeepSpeedChat よりも 2 倍高速です。 ソース: ovachiever/droid-tings。

openrlhf-training のインストール方法は?

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/ovachiever/droid-tings --skill openrlhf-training インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります

ソースリポジトリはどこですか?

https://github.com/ovachiever/droid-tings