llm-evaluation
✓Pruebas rápidas de LLM, evaluación y puertas de calidad de CI/CD utilizando Promptfoo. Invocar cuando: - Configurar una evaluación rápida o pruebas de regresión - Integración de pruebas de LLM en procesos de CI/CD - Configuración de pruebas de seguridad (red teaming, jailbreak) - Comparar el rendimiento del modelo o del mensaje - Conjuntos de evaluación de edificios para RAG, factibilidad o seguridad. Palabras clave: Promptfoo, evaluación de llm, pruebas rápidas, equipo rojo, CI/CD, pruebas de regresión.
Instalación
SKILL.md
Test prompts, models, and RAG systems with automated evaluation and CI/CD integration.
LLM outputs are non-deterministic. "It looks good" isn't testing. You need:
| Functional | Does it work? | contains, equals, is-json | | Semantic | Is it correct? | similar, llm-rubric, factuality | | Performance | Is it fast/cheap? | cost, latency | | Security | Is it safe? | redteam, moderation, pii-detection |
Pruebas rápidas de LLM, evaluación y puertas de calidad de CI/CD utilizando Promptfoo. Invocar cuando: - Configurar una evaluación rápida o pruebas de regresión - Integración de pruebas de LLM en procesos de CI/CD - Configuración de pruebas de seguridad (red teaming, jailbreak) - Comparar el rendimiento del modelo o del mensaje - Conjuntos de evaluación de edificios para RAG, factibilidad o seguridad. Palabras clave: Promptfoo, evaluación de llm, pruebas rápidas, equipo rojo, CI/CD, pruebas de regresión. Fuente: phrazzld/claude-config.
Datos (listos para citar)
Campos y comandos estables para citas de IA/búsqueda.
- Comando de instalación
npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation- Fuente
- phrazzld/claude-config
- Categoría
- </>Desarrollo
- Verificado
- ✓
- Primera vez visto
- 2026-02-01
- Actualizado
- 2026-02-18
Respuestas rápidas
¿Qué es llm-evaluation?
Pruebas rápidas de LLM, evaluación y puertas de calidad de CI/CD utilizando Promptfoo. Invocar cuando: - Configurar una evaluación rápida o pruebas de regresión - Integración de pruebas de LLM en procesos de CI/CD - Configuración de pruebas de seguridad (red teaming, jailbreak) - Comparar el rendimiento del modelo o del mensaje - Conjuntos de evaluación de edificios para RAG, factibilidad o seguridad. Palabras clave: Promptfoo, evaluación de llm, pruebas rápidas, equipo rojo, CI/CD, pruebas de regresión. Fuente: phrazzld/claude-config.
¿Cómo instalo llm-evaluation?
Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor
¿Dónde está el repositorio de origen?
https://github.com/phrazzld/claude-config
Detalles
- Categoría
- </>Desarrollo
- Fuente
- skills.sh
- Primera vez visto
- 2026-02-01