·write-judge-prompt
</>

write-judge-prompt

Diseñe evaluadores de LLM como juez para criterios subjetivos que las comprobaciones basadas en códigos no pueden manejar. Úselo cuando un modo de falla requiera interpretación (tono, fidelidad, relevancia, integridad). NO lo use cuando el modo de falla se pueda verificar con código (regex, validación de esquema, pruebas de ejecución). NO lo use cuando necesite validar o calibrar al juez; en su lugar, use validar-evaluador.

76Instalaciones·2Tendencia·@hamelsmu

Instalación

$npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt

Cómo instalar write-judge-prompt

Instala rápidamente el skill de IA write-judge-prompt en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: hamelsmu/evals-skills.

SKILL.md

Ver original

Design a binary Pass/Fail LLM-as-Judge evaluator for one specific failure mode. Each judge checks exactly one thing.

State what the judge evaluates. One failure mode per judge.

Not: "Evaluate whether the email is good" or "Rate the email quality from 1-5."

Diseñe evaluadores de LLM como juez para criterios subjetivos que las comprobaciones basadas en códigos no pueden manejar. Úselo cuando un modo de falla requiera interpretación (tono, fidelidad, relevancia, integridad). NO lo use cuando el modo de falla se pueda verificar con código (regex, validación de esquema, pruebas de ejecución). NO lo use cuando necesite validar o calibrar al juez; en su lugar, use validar-evaluador. Fuente: hamelsmu/evals-skills.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-03-04
Actualizado
2026-03-11

Browse more skills from hamelsmu/evals-skills

Respuestas rápidas

¿Qué es write-judge-prompt?

Diseñe evaluadores de LLM como juez para criterios subjetivos que las comprobaciones basadas en códigos no pueden manejar. Úselo cuando un modo de falla requiera interpretación (tono, fidelidad, relevancia, integridad). NO lo use cuando el modo de falla se pueda verificar con código (regex, validación de esquema, pruebas de ejecución). NO lo use cuando necesite validar o calibrar al juez; en su lugar, use validar-evaluador. Fuente: hamelsmu/evals-skills.

¿Cómo instalo write-judge-prompt?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/hamelsmu/evals-skills