·langgraph-testing-evaluation
</>

langgraph-testing-evaluation

Используйте этот навык, когда вам нужно протестировать или оценить агенты LangGraph/LangChain: написание модульных или интеграционных тестов, создание тестовых шаблонов, моделирование поведения LLM/инструмента, выполнение оценки траектории (сопоставление или LLM-как судья), выполнение оценок набора данных LangSmith и сравнение двух версий агента с помощью автономного анализа в стиле A/B. Используйте его для рабочих процессов Python и JavaScript/TypeScript, проектирования оценщиков, настройки экспериментов, ворот регрессии и отладки нестабильных/неправильных результатов оценки.

16Установки·3Тренд·@lubu-labs

Установка

$npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation

Как установить langgraph-testing-evaluation

Быстро установите AI-навык langgraph-testing-evaluation в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: lubu-labs/langchain-agent-skills.

Use this file for high-level flow. Load references/ for detailed implementation.

| Validate node logic quickly | Unit tests with mocks | references/unit-testing-patterns.md | | Validate multi-step agent behavior | Trajectory evaluation | references/trajectory-evaluation.md | | Track quality over datasets over time | LangSmith evaluation | references/langsmith-evaluation.md |

| Compare old vs new agent versions | A/B comparison | references/ab-testing.md |

Используйте этот навык, когда вам нужно протестировать или оценить агенты LangGraph/LangChain: написание модульных или интеграционных тестов, создание тестовых шаблонов, моделирование поведения LLM/инструмента, выполнение оценки траектории (сопоставление или LLM-как судья), выполнение оценок набора данных LangSmith и сравнение двух версий агента с помощью автономного анализа в стиле A/B. Используйте его для рабочих процессов Python и JavaScript/TypeScript, проектирования оценщиков, настройки экспериментов, ворот регрессии и отладки нестабильных/неправильных результатов оценки. Источник: lubu-labs/langchain-agent-skills.

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation
Категория
</>Разработка
Проверено
Впервые замечено
2026-02-22
Обновлено
2026-03-10

Browse more skills from lubu-labs/langchain-agent-skills

Короткие ответы

Что такое langgraph-testing-evaluation?

Используйте этот навык, когда вам нужно протестировать или оценить агенты LangGraph/LangChain: написание модульных или интеграционных тестов, создание тестовых шаблонов, моделирование поведения LLM/инструмента, выполнение оценки траектории (сопоставление или LLM-как судья), выполнение оценок набора данных LangSmith и сравнение двух версий агента с помощью автономного анализа в стиле A/B. Используйте его для рабочих процессов Python и JavaScript/TypeScript, проектирования оценщиков, настройки экспериментов, ворот регрессии и отладки нестабильных/неправильных результатов оценки. Источник: lubu-labs/langchain-agent-skills.

Как установить langgraph-testing-evaluation?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/lubu-labs/langchain-agent-skills