·openrlhf-training
</>

openrlhf-training

Marco RLHF de alto rendimiento con aceleración Ray+vLLM. Uso para entrenamiento PPO, GRPO, RLOO, DPO de modelos grandes (7B-70B+). Construido sobre Ray, vLLM, ZeRO-3. 2 veces más rápido que DeepSpeedChat con arquitectura distribuida y uso compartido de recursos de GPU.

28Instalaciones·0Tendencia·@ovachiever

Instalación

$npx skills add https://github.com/ovachiever/droid-tings --skill openrlhf-training

Cómo instalar openrlhf-training

Instala rápidamente el skill de IA openrlhf-training en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/ovachiever/droid-tings --skill openrlhf-training
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: ovachiever/droid-tings.

SKILL.md

Ver original

OpenRLHF is a Ray-based RLHF framework optimized for distributed training with vLLM inference acceleration.

Workflow 1: Full RLHF pipeline (SFT → Reward Model → PPO)

Hybrid Engine GPU sharing: See references/hybrid-engine.md for vLLM sleep mode, DeepSpeed sleep mode, and optimal node allocation.

Marco RLHF de alto rendimiento con aceleración Ray+vLLM. Uso para entrenamiento PPO, GRPO, RLOO, DPO de modelos grandes (7B-70B+). Construido sobre Ray, vLLM, ZeRO-3. 2 veces más rápido que DeepSpeedChat con arquitectura distribuida y uso compartido de recursos de GPU. Fuente: ovachiever/droid-tings.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/ovachiever/droid-tings --skill openrlhf-training
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-03-03
Actualizado
2026-03-10

Browse more skills from ovachiever/droid-tings

Respuestas rápidas

¿Qué es openrlhf-training?

Marco RLHF de alto rendimiento con aceleración Ray+vLLM. Uso para entrenamiento PPO, GRPO, RLOO, DPO de modelos grandes (7B-70B+). Construido sobre Ray, vLLM, ZeRO-3. 2 veces más rápido que DeepSpeedChat con arquitectura distribuida y uso compartido de recursos de GPU. Fuente: ovachiever/droid-tings.

¿Cómo instalo openrlhf-training?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/ovachiever/droid-tings --skill openrlhf-training Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/ovachiever/droid-tings