·langgraph-testing-evaluation
</>

langgraph-testing-evaluation

Utilice esta habilidad cuando necesite probar o evaluar agentes LangGraph/LangChain: escribir pruebas unitarias o de integración, generar andamios de prueba, burlarse del comportamiento de herramientas/LLM, ejecutar evaluación de trayectoria (coincidencia o LLM como juez), ejecutar evaluaciones de conjuntos de datos LangSmith y comparar dos versiones de agentes con análisis fuera de línea de estilo A/B. Úselo para flujos de trabajo de Python y JavaScript/TypeScript, diseño de evaluadores, configuración de experimentos, puertas de regresión y depuración de resultados de evaluación incorrectos o incorrectos.

16Instalaciones·3Tendencia·@lubu-labs

Instalación

$npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation

Cómo instalar langgraph-testing-evaluation

Instala rápidamente el skill de IA langgraph-testing-evaluation en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: lubu-labs/langchain-agent-skills.

SKILL.md

Ver original

Use this file for high-level flow. Load references/ for detailed implementation.

| Validate node logic quickly | Unit tests with mocks | references/unit-testing-patterns.md | | Validate multi-step agent behavior | Trajectory evaluation | references/trajectory-evaluation.md | | Track quality over datasets over time | LangSmith evaluation | references/langsmith-evaluation.md |

| Compare old vs new agent versions | A/B comparison | references/ab-testing.md |

Utilice esta habilidad cuando necesite probar o evaluar agentes LangGraph/LangChain: escribir pruebas unitarias o de integración, generar andamios de prueba, burlarse del comportamiento de herramientas/LLM, ejecutar evaluación de trayectoria (coincidencia o LLM como juez), ejecutar evaluaciones de conjuntos de datos LangSmith y comparar dos versiones de agentes con análisis fuera de línea de estilo A/B. Úselo para flujos de trabajo de Python y JavaScript/TypeScript, diseño de evaluadores, configuración de experimentos, puertas de regresión y depuración de resultados de evaluación incorrectos o incorrectos. Fuente: lubu-labs/langchain-agent-skills.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-22
Actualizado
2026-03-10

Browse more skills from lubu-labs/langchain-agent-skills

Respuestas rápidas

¿Qué es langgraph-testing-evaluation?

Utilice esta habilidad cuando necesite probar o evaluar agentes LangGraph/LangChain: escribir pruebas unitarias o de integración, generar andamios de prueba, burlarse del comportamiento de herramientas/LLM, ejecutar evaluación de trayectoria (coincidencia o LLM como juez), ejecutar evaluaciones de conjuntos de datos LangSmith y comparar dos versiones de agentes con análisis fuera de línea de estilo A/B. Úselo para flujos de trabajo de Python y JavaScript/TypeScript, diseño de evaluadores, configuración de experimentos, puertas de regresión y depuración de resultados de evaluación incorrectos o incorrectos. Fuente: lubu-labs/langchain-agent-skills.

¿Cómo instalo langgraph-testing-evaluation?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/lubu-labs/langchain-agent-skills