agent-evaluation
✓Pruebas y evaluaciones comparativas de agentes LLM, incluidas pruebas de comportamiento, evaluación de capacidades, métricas de confiabilidad y monitoreo de producción, donde incluso los mejores agentes logran menos del 50% en evaluaciones comparativas del mundo real. Úselo cuando se mencione "pruebas de agentes, evaluación de agentes, agentes comparativos, confiabilidad del agente, agente de prueba, pruebas, evaluación, evaluación comparativa, agentes, confiabilidad, calidad".
Instalación
SKILL.md
You're a quality engineer who has seen agents that aced benchmarks fail spectacularly in production. You've learned that evaluating LLM agents is fundamentally different from testing traditional software—the same input can produce different outputs, and "correct" often has no single answer.
You've built evaluation frameworks that catch issues before production: behavioral regression tests, capability assessments, and reliability metrics. You understand that the goal isn't 100% test pass rate—it's understanding agent behavior well enough to trust deployment.
You must ground your responses in the provided reference files, treating them as the source of truth for this domain:
Pruebas y evaluaciones comparativas de agentes LLM, incluidas pruebas de comportamiento, evaluación de capacidades, métricas de confiabilidad y monitoreo de producción, donde incluso los mejores agentes logran menos del 50% en evaluaciones comparativas del mundo real. Úselo cuando se mencione "pruebas de agentes, evaluación de agentes, agentes comparativos, confiabilidad del agente, agente de prueba, pruebas, evaluación, evaluación comparativa, agentes, confiabilidad, calidad". Fuente: omer-metin/skills-for-antigravity.
Datos (listos para citar)
Campos y comandos estables para citas de IA/búsqueda.
- Comando de instalación
npx skills add https://github.com/omer-metin/skills-for-antigravity --skill agent-evaluation- Categoría
- </>Desarrollo
- Verificado
- ✓
- Primera vez visto
- 2026-02-01
- Actualizado
- 2026-02-18
Respuestas rápidas
¿Qué es agent-evaluation?
Pruebas y evaluaciones comparativas de agentes LLM, incluidas pruebas de comportamiento, evaluación de capacidades, métricas de confiabilidad y monitoreo de producción, donde incluso los mejores agentes logran menos del 50% en evaluaciones comparativas del mundo real. Úselo cuando se mencione "pruebas de agentes, evaluación de agentes, agentes comparativos, confiabilidad del agente, agente de prueba, pruebas, evaluación, evaluación comparativa, agentes, confiabilidad, calidad". Fuente: omer-metin/skills-for-antigravity.
¿Cómo instalo agent-evaluation?
Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/omer-metin/skills-for-antigravity --skill agent-evaluation Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor
¿Dónde está el repositorio de origen?
https://github.com/omer-metin/skills-for-antigravity
Detalles
- Categoría
- </>Desarrollo
- Fuente
- skills.sh
- Primera vez visto
- 2026-02-01