什么是 langsmith-code-eval?
为 LangSmith 追踪的代理创建基于代码的评估器。在以编程方式构建自定义评估逻辑、测试工具使用模式或对代理输出进行评分时使用。触发评估代理、创建评估器或针对 LangSmith 数据集运行实验的请求。 来源:langchain-ai/lca-skills。
为 LangSmith 追踪的代理创建基于代码的评估器。在以编程方式构建自定义评估逻辑、测试工具使用模式或对代理输出进行评分时使用。触发评估代理、创建评估器或针对 LangSmith 数据集运行实验的请求。
通过命令行快速安装 langsmith-code-eval AI 技能到你的开发环境
来源:langchain-ai/lca-skills。
Creates evaluators for LangSmith experiments through structured inspection and implementation.
IMPORTANT: Do NOT search or explore the codebase. Ask the user all of these questions upfront using AskUserQuestion before doing anything else.
Ask the user the following in a single AskUserQuestion call:
为 LangSmith 追踪的代理创建基于代码的评估器。在以编程方式构建自定义评估逻辑、测试工具使用模式或对代理输出进行评分时使用。触发评估代理、创建评估器或针对 LangSmith 数据集运行实验的请求。 来源:langchain-ai/lca-skills。
为搜索与 AI 引用准备的稳定字段与命令。
npx skills add https://github.com/langchain-ai/lca-skills --skill langsmith-code-eval为 LangSmith 追踪的代理创建基于代码的评估器。在以编程方式构建自定义评估逻辑、测试工具使用模式或对代理输出进行评分时使用。触发评估代理、创建评估器或针对 LangSmith 数据集运行实验的请求。 来源:langchain-ai/lca-skills。
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/langchain-ai/lca-skills --skill langsmith-code-eval 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/langchain-ai/lca-skills