什麼是 langsmith-code-eval?
為 LangSmith 追蹤的代理程式建立基於程式碼的評估器。以程式設計方式建立自訂評估邏輯、測試工具使用模式或對代理輸出進行評分時使用。觸發評估代理程式、建立評估器或針對 LangSmith 資料集運行實驗的請求。 來源:langchain-ai/lca-skills。
為 LangSmith 追蹤的代理程式建立基於程式碼的評估器。以程式設計方式建立自訂評估邏輯、測試工具使用模式或對代理輸出進行評分時使用。觸發評估代理程式、建立評估器或針對 LangSmith 資料集運行實驗的請求。
透過命令列快速安裝 langsmith-code-eval AI 技能到你的開發環境
來源:langchain-ai/lca-skills。
Creates evaluators for LangSmith experiments through structured inspection and implementation.
IMPORTANT: Do NOT search or explore the codebase. Ask the user all of these questions upfront using AskUserQuestion before doing anything else.
Ask the user the following in a single AskUserQuestion call:
為 LangSmith 追蹤的代理程式建立基於程式碼的評估器。以程式設計方式建立自訂評估邏輯、測試工具使用模式或對代理輸出進行評分時使用。觸發評估代理程式、建立評估器或針對 LangSmith 資料集運行實驗的請求。 來源:langchain-ai/lca-skills。
為搜尋與 AI 引用準備的穩定欄位與指令。
npx skills add https://github.com/langchain-ai/lca-skills --skill langsmith-code-eval為 LangSmith 追蹤的代理程式建立基於程式碼的評估器。以程式設計方式建立自訂評估邏輯、測試工具使用模式或對代理輸出進行評分時使用。觸發評估代理程式、建立評估器或針對 LangSmith 資料集運行實驗的請求。 來源:langchain-ai/lca-skills。
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/langchain-ai/lca-skills --skill langsmith-code-eval 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/langchain-ai/lca-skills