·langgraph-testing-evaluation
</>

langgraph-testing-evaluation

LangGraph/LangChain 에이전트를 테스트하거나 평가해야 할 때 이 기술을 사용하십시오. 단위 또는 통합 테스트 작성, 테스트 스캐폴드 생성, LLM/도구 동작 모의, 궤적 평가 실행(일치 또는 LLM-판단), LangSmith 데이터 세트 평가 실행, A/B 스타일 오프라인 분석과 두 에이전트 버전 비교. Python 및 JavaScript/TypeScript 워크플로, 평가자 설계, 실험 설정, 회귀 게이트 및 불안정하거나 잘못된 평가 결과 디버깅에 사용하세요.

16설치·3트렌드·@lubu-labs

설치

$npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation

langgraph-testing-evaluation 설치 방법

명령줄에서 langgraph-testing-evaluation AI 스킬을 개발 환경에 빠르게 설치

  1. 터미널 열기: 터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다
  2. 설치 명령어 실행: 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation
  3. 설치 확인: 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

출처: lubu-labs/langchain-agent-skills.

Use this file for high-level flow. Load references/ for detailed implementation.

| Validate node logic quickly | Unit tests with mocks | references/unit-testing-patterns.md | | Validate multi-step agent behavior | Trajectory evaluation | references/trajectory-evaluation.md | | Track quality over datasets over time | LangSmith evaluation | references/langsmith-evaluation.md |

| Compare old vs new agent versions | A/B comparison | references/ab-testing.md |

LangGraph/LangChain 에이전트를 테스트하거나 평가해야 할 때 이 기술을 사용하십시오. 단위 또는 통합 테스트 작성, 테스트 스캐폴드 생성, LLM/도구 동작 모의, 궤적 평가 실행(일치 또는 LLM-판단), LangSmith 데이터 세트 평가 실행, A/B 스타일 오프라인 분석과 두 에이전트 버전 비교. Python 및 JavaScript/TypeScript 워크플로, 평가자 설계, 실험 설정, 회귀 게이트 및 불안정하거나 잘못된 평가 결과 디버깅에 사용하세요. 출처: lubu-labs/langchain-agent-skills.

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation
카테고리
</>개발 도구
인증됨
최초 등록
2026-02-22
업데이트
2026-03-10

Browse more skills from lubu-labs/langchain-agent-skills

빠른 답변

langgraph-testing-evaluation이란?

LangGraph/LangChain 에이전트를 테스트하거나 평가해야 할 때 이 기술을 사용하십시오. 단위 또는 통합 테스트 작성, 테스트 스캐폴드 생성, LLM/도구 동작 모의, 궤적 평가 실행(일치 또는 LLM-판단), LangSmith 데이터 세트 평가 실행, A/B 스타일 오프라인 분석과 두 에이전트 버전 비교. Python 및 JavaScript/TypeScript 워크플로, 평가자 설계, 실험 설정, 회귀 게이트 및 불안정하거나 잘못된 평가 결과 디버깅에 사용하세요. 출처: lubu-labs/langchain-agent-skills.

langgraph-testing-evaluation 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/lubu-labs/langchain-agent-skills