evaluation
✓Esta habilidad debe usarse cuando el usuario solicita "evaluar el desempeño del agente", "crear un marco de prueba", "medir la calidad del agente", "crear rúbricas de evaluación" o menciona LLM como juez, evaluación multidimensional, pruebas de agentes o puertas de calidad para canalizaciones de agentes.
SKILL.md
Evaluation of agent systems requires different approaches than traditional software or even standard language model applications. Agents make dynamic decisions, are non-deterministic between runs, and often lack single correct answers. Effective evaluation must account for these characteristics while providing actionable feedback. A robust evaluation framework enables continuous improvement, catches regressions, a...
Agent evaluation requires outcome-focused approaches that account for non-determinism and multiple valid paths. Multi-dimensional rubrics capture various quality aspects: factual accuracy, completeness, citation accuracy, source quality, and tool efficiency. LLM-as-judge provides scalable evaluation while human evaluation catches edge cases.
The key insight is that agents may find alternative paths to goals—the evaluation should judge whether they achieve right outcomes while following reasonable processes.
Esta habilidad debe usarse cuando el usuario solicita "evaluar el desempeño del agente", "crear un marco de prueba", "medir la calidad del agente", "crear rúbricas de evaluación" o menciona LLM como juez, evaluación multidimensional, pruebas de agentes o puertas de calidad para canalizaciones de agentes. Fuente: muratcankoylan/agent-skills-for-context-engineering.
Datos (listos para citar)
Campos y comandos estables para citas de IA/búsqueda.
- Comando de instalación
npx skills add https://github.com/muratcankoylan/agent-skills-for-context-engineering --skill evaluation- Categoría
- </>Desarrollo
- Verificado
- ✓
- Primera vez visto
- 2026-02-01
- Actualizado
- 2026-02-18
Respuestas rápidas
¿Qué es evaluation?
Esta habilidad debe usarse cuando el usuario solicita "evaluar el desempeño del agente", "crear un marco de prueba", "medir la calidad del agente", "crear rúbricas de evaluación" o menciona LLM como juez, evaluación multidimensional, pruebas de agentes o puertas de calidad para canalizaciones de agentes. Fuente: muratcankoylan/agent-skills-for-context-engineering.
¿Cómo instalo evaluation?
Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/muratcankoylan/agent-skills-for-context-engineering --skill evaluation Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor
¿Dónde está el repositorio de origen?
https://github.com/muratcankoylan/agent-skills-for-context-engineering
Detalles
- Categoría
- </>Desarrollo
- Fuente
- skills.sh
- Primera vez visto
- 2026-02-01