·advanced-evaluation
</>

advanced-evaluation

Esta habilidad debe usarse cuando el usuario solicita "implementar LLM como juez", "comparar los resultados del modelo", "crear rúbricas de evaluación", "mitigar el sesgo de evaluación" o menciona calificación directa, comparación por pares, sesgo de posición, canales de evaluación o evaluación de calidad automatizada.

3Instalaciones·0Tendencia·@chakshugautam

Instalación

$npx skills add https://github.com/chakshugautam/games --skill advanced-evaluation

Cómo instalar advanced-evaluation

Instala rápidamente el skill de IA advanced-evaluation en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/chakshugautam/games --skill advanced-evaluation
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: chakshugautam/games.

SKILL.md

Ver original

This skill covers production-grade techniques for evaluating LLM outputs using LLMs as judges. It synthesizes research from academic papers, industry practices, and practical implementation experience into actionable patterns for building reliable evaluation systems.

Key insight: LLM-as-a-Judge is not a single technique but a family of approaches, each suited to different evaluation contexts. Choosing the right approach and mitigating known biases is the core competency this skill develops.

Evaluation approaches fall into two primary categories with distinct reliability profiles:

Esta habilidad debe usarse cuando el usuario solicita "implementar LLM como juez", "comparar los resultados del modelo", "crear rúbricas de evaluación", "mitigar el sesgo de evaluación" o menciona calificación directa, comparación por pares, sesgo de posición, canales de evaluación o evaluación de calidad automatizada. Fuente: chakshugautam/games.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/chakshugautam/games --skill advanced-evaluation
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-26
Actualizado
2026-03-11

Browse more skills from chakshugautam/games

Respuestas rápidas

¿Qué es advanced-evaluation?

Esta habilidad debe usarse cuando el usuario solicita "implementar LLM como juez", "comparar los resultados del modelo", "crear rúbricas de evaluación", "mitigar el sesgo de evaluación" o menciona calificación directa, comparación por pares, sesgo de posición, canales de evaluación o evaluación de calidad automatizada. Fuente: chakshugautam/games.

¿Cómo instalo advanced-evaluation?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/chakshugautam/games --skill advanced-evaluation Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/chakshugautam/games

Detalles

Categoría
</>Desarrollo
Fuente
skills.sh
Primera vez visto
2026-02-26