·langgraph-testing-evaluation
</>

langgraph-testing-evaluation

Utilisez cette compétence lorsque vous devez tester ou évaluer des agents LangGraph/LangChain : écrire des tests unitaires ou d'intégration, générer des échafaudages de test, se moquer du comportement du LLM/outil, exécuter une évaluation de trajectoire (match ou LLM en tant que juge), exécuter des évaluations d'ensembles de données LangSmith et comparer deux versions d'agent avec une analyse hors ligne de style A/B. Utilisez-le pour les flux de travail Python et JavaScript/TypeScript, la conception d'évaluateurs, la configuration d'expériences, les portes de régression et le débogage des résultats d'évaluation irréguliers/incorrects.

16Installations·3Tendance·@lubu-labs

Installation

$npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation

Comment installer langgraph-testing-evaluation

Installez rapidement le skill IA langgraph-testing-evaluation dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : lubu-labs/langchain-agent-skills.

Use this file for high-level flow. Load references/ for detailed implementation.

| Validate node logic quickly | Unit tests with mocks | references/unit-testing-patterns.md | | Validate multi-step agent behavior | Trajectory evaluation | references/trajectory-evaluation.md | | Track quality over datasets over time | LangSmith evaluation | references/langsmith-evaluation.md |

| Compare old vs new agent versions | A/B comparison | references/ab-testing.md |

Utilisez cette compétence lorsque vous devez tester ou évaluer des agents LangGraph/LangChain : écrire des tests unitaires ou d'intégration, générer des échafaudages de test, se moquer du comportement du LLM/outil, exécuter une évaluation de trajectoire (match ou LLM en tant que juge), exécuter des évaluations d'ensembles de données LangSmith et comparer deux versions d'agent avec une analyse hors ligne de style A/B. Utilisez-le pour les flux de travail Python et JavaScript/TypeScript, la conception d'évaluateurs, la configuration d'expériences, les portes de régression et le débogage des résultats d'évaluation irréguliers/incorrects. Source : lubu-labs/langchain-agent-skills.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-22
Mis à jour
2026-03-10

Browse more skills from lubu-labs/langchain-agent-skills

Réponses rapides

Qu'est-ce que langgraph-testing-evaluation ?

Utilisez cette compétence lorsque vous devez tester ou évaluer des agents LangGraph/LangChain : écrire des tests unitaires ou d'intégration, générer des échafaudages de test, se moquer du comportement du LLM/outil, exécuter une évaluation de trajectoire (match ou LLM en tant que juge), exécuter des évaluations d'ensembles de données LangSmith et comparer deux versions d'agent avec une analyse hors ligne de style A/B. Utilisez-le pour les flux de travail Python et JavaScript/TypeScript, la conception d'évaluateurs, la configuration d'expériences, les portes de régression et le débogage des résultats d'évaluation irréguliers/incorrects. Source : lubu-labs/langchain-agent-skills.

Comment installer langgraph-testing-evaluation ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/lubu-labs/langchain-agent-skills