·pydantic-evals
</>

pydantic-evals

Pruebe y evalúe agentes de IA y resultados de LLM utilizando un marco de evaluación de código primero con tipificación segura. Úselo cuando el usuario desee: (1) crear conjuntos de datos de evaluación con casos de prueba para agentes de IA, (2) definir evaluadores (deterministas, LLM como juez, personalizados o basados en intervalos), (3) ejecutar evaluaciones y generar informes, (4) comparar el rendimiento del modelo entre experimentos, (5) integrar evaluaciones con agentes de IA de Pydantic, (6) configurar la observabilidad con Logfire, (7) generar conjuntos de datos de prueba utilizando LLM, (8) implementar pruebas de regresión para sistemas de IA.

4Instalaciones·0Tendencia·@fuenfgeld

Instalación

$npx skills add https://github.com/fuenfgeld/pydantic-ai-skills --skill pydantic-evals

Cómo instalar pydantic-evals

Instala rápidamente el skill de IA pydantic-evals en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/fuenfgeld/pydantic-ai-skills --skill pydantic-evals
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: fuenfgeld/pydantic-ai-skills.

SKILL.md

Ver original

Pydantic Evals provides rigorous testing and evaluation for AI agents and LLM outputs using a code-first approach with Pydantic models. It enables "Evaluation-Driven Development" (EDD) where evaluation suites live alongside application code, subject to version control and CI/CD.

Case A single test scenario with inputs, optional expected output, and metadata.

Dataset Collection of Cases with default evaluators. Generic over input/output types.

Pruebe y evalúe agentes de IA y resultados de LLM utilizando un marco de evaluación de código primero con tipificación segura. Úselo cuando el usuario desee: (1) crear conjuntos de datos de evaluación con casos de prueba para agentes de IA, (2) definir evaluadores (deterministas, LLM como juez, personalizados o basados en intervalos), (3) ejecutar evaluaciones y generar informes, (4) comparar el rendimiento del modelo entre experimentos, (5) integrar evaluaciones con agentes de IA de Pydantic, (6) configurar la observabilidad con Logfire, (7) generar conjuntos de datos de prueba utilizando LLM, (8) implementar pruebas de regresión para sistemas de IA. Fuente: fuenfgeld/pydantic-ai-skills.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/fuenfgeld/pydantic-ai-skills --skill pydantic-evals
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-26
Actualizado
2026-03-10

Browse more skills from fuenfgeld/pydantic-ai-skills

Respuestas rápidas

¿Qué es pydantic-evals?

Pruebe y evalúe agentes de IA y resultados de LLM utilizando un marco de evaluación de código primero con tipificación segura. Úselo cuando el usuario desee: (1) crear conjuntos de datos de evaluación con casos de prueba para agentes de IA, (2) definir evaluadores (deterministas, LLM como juez, personalizados o basados en intervalos), (3) ejecutar evaluaciones y generar informes, (4) comparar el rendimiento del modelo entre experimentos, (5) integrar evaluaciones con agentes de IA de Pydantic, (6) configurar la observabilidad con Logfire, (7) generar conjuntos de datos de prueba utilizando LLM, (8) implementar pruebas de regresión para sistemas de IA. Fuente: fuenfgeld/pydantic-ai-skills.

¿Cómo instalo pydantic-evals?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/fuenfgeld/pydantic-ai-skills --skill pydantic-evals Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/fuenfgeld/pydantic-ai-skills

Detalles

Categoría
</>Desarrollo
Fuente
skills.sh
Primera vez visto
2026-02-26