·openrlhf-training
</>

openrlhf-training

Framework RLHF hautes performances avec accélération Ray+vLLM. Utilisation pour la formation PPO, GRPO, RLOO, DPO de grands modèles (7B-70B+). Construit sur Ray, vLLM, ZeRO-3. 2 fois plus rapide que DeepSpeedChat avec une architecture distribuée et le partage des ressources GPU.

28Installations·0Tendance·@ovachiever

Installation

$npx skills add https://github.com/ovachiever/droid-tings --skill openrlhf-training

Comment installer openrlhf-training

Installez rapidement le skill IA openrlhf-training dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/ovachiever/droid-tings --skill openrlhf-training
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : ovachiever/droid-tings.

OpenRLHF is a Ray-based RLHF framework optimized for distributed training with vLLM inference acceleration.

Workflow 1: Full RLHF pipeline (SFT → Reward Model → PPO)

Hybrid Engine GPU sharing: See references/hybrid-engine.md for vLLM sleep mode, DeepSpeed sleep mode, and optimal node allocation.

Framework RLHF hautes performances avec accélération Ray+vLLM. Utilisation pour la formation PPO, GRPO, RLOO, DPO de grands modèles (7B-70B+). Construit sur Ray, vLLM, ZeRO-3. 2 fois plus rapide que DeepSpeedChat avec une architecture distribuée et le partage des ressources GPU. Source : ovachiever/droid-tings.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/ovachiever/droid-tings --skill openrlhf-training
Catégorie
</>Développement
Vérifié
Première apparition
2026-03-03
Mis à jour
2026-03-10

Browse more skills from ovachiever/droid-tings

Réponses rapides

Qu'est-ce que openrlhf-training ?

Framework RLHF hautes performances avec accélération Ray+vLLM. Utilisation pour la formation PPO, GRPO, RLOO, DPO de grands modèles (7B-70B+). Construit sur Ray, vLLM, ZeRO-3. 2 fois plus rapide que DeepSpeedChat avec une architecture distribuée et le partage des ressources GPU. Source : ovachiever/droid-tings.

Comment installer openrlhf-training ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/ovachiever/droid-tings --skill openrlhf-training Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/ovachiever/droid-tings