agentic-eval
✓Patrones y técnicas para evaluar y mejorar los resultados de los agentes de IA. Utilice esta habilidad cuando: - Implementar circuitos de autocrítica y reflexión. - Creación de canales de evaluación y optimización para la generación de aspectos críticos para la calidad. - Creación de flujos de trabajo de refinamiento de código basados en pruebas. - Diseño de sistemas de evaluación basados en rúbricas o LLM como juez. - Agregar mejoras iterativas a los resultados de los agentes (código, informes, análisis) - Medir y mejorar la calidad de respuesta de los agentes.
Instalación
SKILL.md
Patterns for self-improvement through iterative evaluation and refinement.
Evaluation patterns enable agents to assess and improve their own outputs, moving beyond single-shot generation to iterative refinement loops.
Key insight: Use structured JSON output for reliable parsing of critique results.
Patrones y técnicas para evaluar y mejorar los resultados de los agentes de IA. Utilice esta habilidad cuando: - Implementar circuitos de autocrítica y reflexión. - Creación de canales de evaluación y optimización para la generación de aspectos críticos para la calidad. - Creación de flujos de trabajo de refinamiento de código basados en pruebas. - Diseño de sistemas de evaluación basados en rúbricas o LLM como juez. - Agregar mejoras iterativas a los resultados de los agentes (código, informes, análisis) - Medir y mejorar la calidad de respuesta de los agentes. Fuente: github/awesome-copilot.
Datos (listos para citar)
Campos y comandos estables para citas de IA/búsqueda.
- Comando de instalación
npx skills add https://github.com/github/awesome-copilot --skill agentic-eval- Fuente
- github/awesome-copilot
- Categoría
- </>Desarrollo
- Verificado
- ✓
- Primera vez visto
- 2026-02-01
- Actualizado
- 2026-02-18
Respuestas rápidas
¿Qué es agentic-eval?
Patrones y técnicas para evaluar y mejorar los resultados de los agentes de IA. Utilice esta habilidad cuando: - Implementar circuitos de autocrítica y reflexión. - Creación de canales de evaluación y optimización para la generación de aspectos críticos para la calidad. - Creación de flujos de trabajo de refinamiento de código basados en pruebas. - Diseño de sistemas de evaluación basados en rúbricas o LLM como juez. - Agregar mejoras iterativas a los resultados de los agentes (código, informes, análisis) - Medir y mejorar la calidad de respuesta de los agentes. Fuente: github/awesome-copilot.
¿Cómo instalo agentic-eval?
Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/github/awesome-copilot --skill agentic-eval Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor
¿Dónde está el repositorio de origen?
https://github.com/github/awesome-copilot
Detalles
- Categoría
- </>Desarrollo
- Fuente
- skills.sh
- Primera vez visto
- 2026-02-01