langsmith-code-eval이란?
LangSmith 추적 에이전트에 대한 코드 기반 평가자를 만듭니다. 사용자 지정 평가 논리를 구축하거나 도구 사용 패턴을 테스트하거나 에이전트 출력을 프로그래밍 방식으로 채점할 때 사용합니다. 에이전트 평가, 평가자 생성 또는 LangSmith 데이터 세트에 대한 실험 실행 요청에 대해 트리거됩니다. 출처: langchain-ai/lca-skills.
LangSmith 추적 에이전트에 대한 코드 기반 평가자를 만듭니다. 사용자 지정 평가 논리를 구축하거나 도구 사용 패턴을 테스트하거나 에이전트 출력을 프로그래밍 방식으로 채점할 때 사용합니다. 에이전트 평가, 평가자 생성 또는 LangSmith 데이터 세트에 대한 실험 실행 요청에 대해 트리거됩니다.
명령줄에서 langsmith-code-eval AI 스킬을 개발 환경에 빠르게 설치
출처: langchain-ai/lca-skills.
Creates evaluators for LangSmith experiments through structured inspection and implementation.
IMPORTANT: Do NOT search or explore the codebase. Ask the user all of these questions upfront using AskUserQuestion before doing anything else.
Ask the user the following in a single AskUserQuestion call:
LangSmith 추적 에이전트에 대한 코드 기반 평가자를 만듭니다. 사용자 지정 평가 논리를 구축하거나 도구 사용 패턴을 테스트하거나 에이전트 출력을 프로그래밍 방식으로 채점할 때 사용합니다. 에이전트 평가, 평가자 생성 또는 LangSmith 데이터 세트에 대한 실험 실행 요청에 대해 트리거됩니다. 출처: langchain-ai/lca-skills.
AI/검색 인용용 안정적인 필드와 명령어.
npx skills add https://github.com/langchain-ai/lca-skills --skill langsmith-code-evalLangSmith 추적 에이전트에 대한 코드 기반 평가자를 만듭니다. 사용자 지정 평가 논리를 구축하거나 도구 사용 패턴을 테스트하거나 에이전트 출력을 프로그래밍 방식으로 채점할 때 사용합니다. 에이전트 평가, 평가자 생성 또는 LangSmith 데이터 세트에 대한 실험 실행 요청에 대해 트리거됩니다. 출처: langchain-ai/lca-skills.
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/langchain-ai/lca-skills --skill langsmith-code-eval 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다
https://github.com/langchain-ai/lca-skills