·write-judge-prompt
</>

write-judge-prompt

Concevez des évaluateurs LLM-as-Judge pour des critères subjectifs que les contrôles basés sur le code ne peuvent pas gérer. À utiliser lorsqu'un mode d'échec nécessite une interprétation (ton, fidélité, pertinence, exhaustivité). Ne PAS utiliser lorsque le mode de défaillance peut être vérifié avec du code (regex, validation de schéma, tests d'exécution). Ne PAS utiliser lorsque vous devez valider ou calibrer le juge – utilisez plutôt validate-evaluator.

76Installations·3Tendance·@hamelsmu

Installation

$npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt

Comment installer write-judge-prompt

Installez rapidement le skill IA write-judge-prompt dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : hamelsmu/evals-skills.

Design a binary Pass/Fail LLM-as-Judge evaluator for one specific failure mode. Each judge checks exactly one thing.

State what the judge evaluates. One failure mode per judge.

Not: "Evaluate whether the email is good" or "Rate the email quality from 1-5."

Concevez des évaluateurs LLM-as-Judge pour des critères subjectifs que les contrôles basés sur le code ne peuvent pas gérer. À utiliser lorsqu'un mode d'échec nécessite une interprétation (ton, fidélité, pertinence, exhaustivité). Ne PAS utiliser lorsque le mode de défaillance peut être vérifié avec du code (regex, validation de schéma, tests d'exécution). Ne PAS utiliser lorsque vous devez valider ou calibrer le juge – utilisez plutôt validate-evaluator. Source : hamelsmu/evals-skills.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt
Catégorie
</>Développement
Vérifié
Première apparition
2026-03-04
Mis à jour
2026-03-10

Browse more skills from hamelsmu/evals-skills

Réponses rapides

Qu'est-ce que write-judge-prompt ?

Concevez des évaluateurs LLM-as-Judge pour des critères subjectifs que les contrôles basés sur le code ne peuvent pas gérer. À utiliser lorsqu'un mode d'échec nécessite une interprétation (ton, fidélité, pertinence, exhaustivité). Ne PAS utiliser lorsque le mode de défaillance peut être vérifié avec du code (regex, validation de schéma, tests d'exécution). Ne PAS utiliser lorsque vous devez valider ou calibrer le juge – utilisez plutôt validate-evaluator. Source : hamelsmu/evals-skills.

Comment installer write-judge-prompt ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/hamelsmu/evals-skills