·advanced-evaluation
</>

advanced-evaluation

Questa competenza dovrebbe essere utilizzata quando l'utente chiede di "implementare il LLM come giudice", "confrontare i risultati del modello", "creare rubriche di valutazione", "mitigare i bias di valutazione" o menziona il punteggio diretto, il confronto a coppie, il bias di posizione, le pipeline di valutazione o la valutazione automatizzata della qualità.

3Installazioni·0Tendenza·@chakshugautam

Installazione

$npx skills add https://github.com/chakshugautam/games --skill advanced-evaluation

Come installare advanced-evaluation

Installa rapidamente la skill AI advanced-evaluation nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/chakshugautam/games --skill advanced-evaluation
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: chakshugautam/games.

This skill covers production-grade techniques for evaluating LLM outputs using LLMs as judges. It synthesizes research from academic papers, industry practices, and practical implementation experience into actionable patterns for building reliable evaluation systems.

Key insight: LLM-as-a-Judge is not a single technique but a family of approaches, each suited to different evaluation contexts. Choosing the right approach and mitigating known biases is the core competency this skill develops.

Evaluation approaches fall into two primary categories with distinct reliability profiles:

Questa competenza dovrebbe essere utilizzata quando l'utente chiede di "implementare il LLM come giudice", "confrontare i risultati del modello", "creare rubriche di valutazione", "mitigare i bias di valutazione" o menziona il punteggio diretto, il confronto a coppie, il bias di posizione, le pipeline di valutazione o la valutazione automatizzata della qualità. Fonte: chakshugautam/games.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/chakshugautam/games --skill advanced-evaluation
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-26
Aggiornato
2026-03-11

Browse more skills from chakshugautam/games

Risposte rapide

Che cos'è advanced-evaluation?

Questa competenza dovrebbe essere utilizzata quando l'utente chiede di "implementare il LLM come giudice", "confrontare i risultati del modello", "creare rubriche di valutazione", "mitigare i bias di valutazione" o menziona il punteggio diretto, il confronto a coppie, il bias di posizione, le pipeline di valutazione o la valutazione automatizzata della qualità. Fonte: chakshugautam/games.

Come installo advanced-evaluation?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/chakshugautam/games --skill advanced-evaluation Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/chakshugautam/games

Dettagli

Categoria
</>Sviluppo
Fonte
skills.sh
Prima apparizione
2026-02-26