·eval-audit
{}

eval-audit

Audite un proceso de evaluación de LLM y descubra problemas: falta de análisis de errores, jueces no validados, métricas de vanidad, etc. Úselo cuando se hereda un sistema de evaluación, cuando no está seguro de si las evaluaciones son confiables o como punto de partida cuando no existe una infraestructura de evaluación. NO lo use cuando el objetivo sea crear un nuevo evaluador desde cero (use análisis de errores, mensaje de evaluación de escritura o evaluador de validación en su lugar).

81Instalaciones·3Tendencia·@hamelsmu

Instalación

$npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit

Cómo instalar eval-audit

Instala rápidamente el skill de IA eval-audit en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: hamelsmu/evals-skills.

SKILL.md

Ver original

Inspect an LLM eval pipeline and produce a prioritized list of problems with concrete next steps.

Access to eval artifacts (traces, evaluator configs, judge prompts, labeled data) via an observability MCP server or local files. If none exist, skip to "No Eval Infrastructure."

Check whether the user has an observability MCP server connected (Phoenix, Braintrust, LangSmith, Truesight or similar). If available, use it to pull traces, evaluator definitions, and experiment results. If not, ask for local files: CSVs, JSON trace exports, notebooks, or evaluation scripts.

Audite un proceso de evaluación de LLM y descubra problemas: falta de análisis de errores, jueces no validados, métricas de vanidad, etc. Úselo cuando se hereda un sistema de evaluación, cuando no está seguro de si las evaluaciones son confiables o como punto de partida cuando no existe una infraestructura de evaluación. NO lo use cuando el objetivo sea crear un nuevo evaluador desde cero (use análisis de errores, mensaje de evaluación de escritura o evaluador de validación en su lugar). Fuente: hamelsmu/evals-skills.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit
Categoría
{}Análisis de Datos
Verificado
Primera vez visto
2026-03-04
Actualizado
2026-03-10

Browse more skills from hamelsmu/evals-skills

Respuestas rápidas

¿Qué es eval-audit?

Audite un proceso de evaluación de LLM y descubra problemas: falta de análisis de errores, jueces no validados, métricas de vanidad, etc. Úselo cuando se hereda un sistema de evaluación, cuando no está seguro de si las evaluaciones son confiables o como punto de partida cuando no existe una infraestructura de evaluación. NO lo use cuando el objetivo sea crear un nuevo evaluador desde cero (use análisis de errores, mensaje de evaluación de escritura o evaluador de validación en su lugar). Fuente: hamelsmu/evals-skills.

¿Cómo instalo eval-audit?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/hamelsmu/evals-skills