·write-judge-prompt
</>

write-judge-prompt

Progetta valutatori LLM-as-Judge per criteri soggettivi che i controlli basati su codici non sono in grado di gestire. Utilizzare quando una modalità di fallimento richiede interpretazione (tono, fedeltà, pertinenza, completezza). NON utilizzare quando la modalità di errore può essere verificata con il codice (regex, convalida dello schema, test di esecuzione). NON utilizzare quando è necessario convalidare o calibrare il giudice: utilizzare invece validate-evaluator.

76Installazioni·3Tendenza·@hamelsmu

Installazione

$npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt

Come installare write-judge-prompt

Installa rapidamente la skill AI write-judge-prompt nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: hamelsmu/evals-skills.

Design a binary Pass/Fail LLM-as-Judge evaluator for one specific failure mode. Each judge checks exactly one thing.

State what the judge evaluates. One failure mode per judge.

Not: "Evaluate whether the email is good" or "Rate the email quality from 1-5."

Progetta valutatori LLM-as-Judge per criteri soggettivi che i controlli basati su codici non sono in grado di gestire. Utilizzare quando una modalità di fallimento richiede interpretazione (tono, fedeltà, pertinenza, completezza). NON utilizzare quando la modalità di errore può essere verificata con il codice (regex, convalida dello schema, test di esecuzione). NON utilizzare quando è necessario convalidare o calibrare il giudice: utilizzare invece validate-evaluator. Fonte: hamelsmu/evals-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-03-04
Aggiornato
2026-03-10

Browse more skills from hamelsmu/evals-skills

Risposte rapide

Che cos'è write-judge-prompt?

Progetta valutatori LLM-as-Judge per criteri soggettivi che i controlli basati su codici non sono in grado di gestire. Utilizzare quando una modalità di fallimento richiede interpretazione (tono, fedeltà, pertinenza, completezza). NON utilizzare quando la modalità di errore può essere verificata con il codice (regex, convalida dello schema, test di esecuzione). NON utilizzare quando è necessario convalidare o calibrare il giudice: utilizzare invece validate-evaluator. Fonte: hamelsmu/evals-skills.

Come installo write-judge-prompt?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/hamelsmu/evals-skills