langsmith-code-eval とは?
LangSmith でトレースされたエージェントのコードベースのエバリュエーターを作成します。カスタム評価ロジックを構築する場合、ツールの使用パターンをテストする場合、またはエージェントの出力をプログラムでスコアリングする場合に使用します。エージェントの評価、エバリュエーターの作成、または LangSmith データセットに対する実験の実行のリクエストをトリガーします。 ソース: langchain-ai/lca-skills。
LangSmith でトレースされたエージェントのコードベースのエバリュエーターを作成します。カスタム評価ロジックを構築する場合、ツールの使用パターンをテストする場合、またはエージェントの出力をプログラムでスコアリングする場合に使用します。エージェントの評価、エバリュエーターの作成、または LangSmith データセットに対する実験の実行のリクエストをトリガーします。
コマンドラインで langsmith-code-eval AI スキルを開発環境にすばやくインストール
ソース: langchain-ai/lca-skills。
Creates evaluators for LangSmith experiments through structured inspection and implementation.
IMPORTANT: Do NOT search or explore the codebase. Ask the user all of these questions upfront using AskUserQuestion before doing anything else.
Ask the user the following in a single AskUserQuestion call:
LangSmith でトレースされたエージェントのコードベースのエバリュエーターを作成します。カスタム評価ロジックを構築する場合、ツールの使用パターンをテストする場合、またはエージェントの出力をプログラムでスコアリングする場合に使用します。エージェントの評価、エバリュエーターの作成、または LangSmith データセットに対する実験の実行のリクエストをトリガーします。 ソース: langchain-ai/lca-skills。
AI/検索での引用用の安定したフィールドとコマンド。
npx skills add https://github.com/langchain-ai/lca-skills --skill langsmith-code-evalLangSmith でトレースされたエージェントのコードベースのエバリュエーターを作成します。カスタム評価ロジックを構築する場合、ツールの使用パターンをテストする場合、またはエージェントの出力をプログラムでスコアリングする場合に使用します。エージェントの評価、エバリュエーターの作成、または LangSmith データセットに対する実験の実行のリクエストをトリガーします。 ソース: langchain-ai/lca-skills。
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/langchain-ai/lca-skills --skill langsmith-code-eval インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります
https://github.com/langchain-ai/lca-skills