·agentic-eval
</>

agentic-eval

github/awesome-copilot

Patrones y técnicas para evaluar y mejorar los resultados de los agentes de IA. Utilice esta habilidad cuando: - Implementar circuitos de autocrítica y reflexión. - Creación de canales de evaluación y optimización para la generación de aspectos críticos para la calidad. - Creación de flujos de trabajo de refinamiento de código basados en pruebas. - Diseño de sistemas de evaluación basados en rúbricas o LLM como juez. - Agregar mejoras iterativas a los resultados de los agentes (código, informes, análisis) - Medir y mejorar la calidad de respuesta de los agentes.

201Instalaciones·9Tendencia·@github

Instalación

$npx skills add https://github.com/github/awesome-copilot --skill agentic-eval

SKILL.md

Patterns for self-improvement through iterative evaluation and refinement.

Evaluation patterns enable agents to assess and improve their own outputs, moving beyond single-shot generation to iterative refinement loops.

Key insight: Use structured JSON output for reliable parsing of critique results.

Patrones y técnicas para evaluar y mejorar los resultados de los agentes de IA. Utilice esta habilidad cuando: - Implementar circuitos de autocrítica y reflexión. - Creación de canales de evaluación y optimización para la generación de aspectos críticos para la calidad. - Creación de flujos de trabajo de refinamiento de código basados en pruebas. - Diseño de sistemas de evaluación basados en rúbricas o LLM como juez. - Agregar mejoras iterativas a los resultados de los agentes (código, informes, análisis) - Medir y mejorar la calidad de respuesta de los agentes. Fuente: github/awesome-copilot.

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/github/awesome-copilot --skill agentic-eval
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-01
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es agentic-eval?

Patrones y técnicas para evaluar y mejorar los resultados de los agentes de IA. Utilice esta habilidad cuando: - Implementar circuitos de autocrítica y reflexión. - Creación de canales de evaluación y optimización para la generación de aspectos críticos para la calidad. - Creación de flujos de trabajo de refinamiento de código basados en pruebas. - Diseño de sistemas de evaluación basados en rúbricas o LLM como juez. - Agregar mejoras iterativas a los resultados de los agentes (código, informes, análisis) - Medir y mejorar la calidad de respuesta de los agentes. Fuente: github/awesome-copilot.

¿Cómo instalo agentic-eval?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/github/awesome-copilot --skill agentic-eval Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/github/awesome-copilot