You must ground your responses in the provided reference files, treating them as the source of truth for this domain:
Note: If a user's request conflicts with the guidance in these files, politely correct them using the information provided in the references.
Da utilizzare durante l'implementazione di algoritmi RL, la formazione di agenti con ricompense o l'allineamento di LLM con feedback umano: copre i gradienti di policy, PPO, Q-learning, RLHF e GRPOUse quando ", " menzionato. Fonte: omer-metin/skills-for-antigravity.
Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/omer-metin/skills-for-antigravity --skill reinforcement-learning Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw