·langgraph-testing-evaluation
</>

langgraph-testing-evaluation

このスキルは、LangGraph/LangChain エージェントをテストまたは評価する必要がある場合に使用します。たとえば、単体テストまたは統合テストの作成、テスト スキャフォールドの生成、LLM/ツールの動作のモック化、軌道評価の実行 (一致または判断としての LLM)、LangSmith データセット評価の実行、A/B スタイルのオフライン分析による 2 つのエージェント バージョンの比較などです。 Python および JavaScript/TypeScript のワークフロー、評価器の設計、実験のセットアップ、回帰ゲート、不安定な/間違った評価結果のデバッグに使用します。

16インストール·2トレンド·@lubu-labs

インストール

$npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation

langgraph-testing-evaluation のインストール方法

コマンドラインで langgraph-testing-evaluation AI スキルを開発環境にすばやくインストール

  1. ターミナルを開く: ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます
  2. インストールコマンドを実行: このコマンドをコピーして実行します: npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation
  3. インストールを確認: インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります

ソース: lubu-labs/langchain-agent-skills。

Use this file for high-level flow. Load references/ for detailed implementation.

| Validate node logic quickly | Unit tests with mocks | references/unit-testing-patterns.md | | Validate multi-step agent behavior | Trajectory evaluation | references/trajectory-evaluation.md | | Track quality over datasets over time | LangSmith evaluation | references/langsmith-evaluation.md |

| Compare old vs new agent versions | A/B comparison | references/ab-testing.md |

このスキルは、LangGraph/LangChain エージェントをテストまたは評価する必要がある場合に使用します。たとえば、単体テストまたは統合テストの作成、テスト スキャフォールドの生成、LLM/ツールの動作のモック化、軌道評価の実行 (一致または判断としての LLM)、LangSmith データセット評価の実行、A/B スタイルのオフライン分析による 2 つのエージェント バージョンの比較などです。 Python および JavaScript/TypeScript のワークフロー、評価器の設計、実験のセットアップ、回帰ゲート、不安定な/間違った評価結果のデバッグに使用します。 ソース: lubu-labs/langchain-agent-skills。

引用可能な情報

AI/検索での引用用の安定したフィールドとコマンド。

インストールコマンド
npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation
カテゴリ
</>開発ツール
認証済み
初回登録
2026-02-22
更新日
2026-03-11

Browse more skills from lubu-labs/langchain-agent-skills

クイックアンサー

langgraph-testing-evaluation とは?

このスキルは、LangGraph/LangChain エージェントをテストまたは評価する必要がある場合に使用します。たとえば、単体テストまたは統合テストの作成、テスト スキャフォールドの生成、LLM/ツールの動作のモック化、軌道評価の実行 (一致または判断としての LLM)、LangSmith データセット評価の実行、A/B スタイルのオフライン分析による 2 つのエージェント バージョンの比較などです。 Python および JavaScript/TypeScript のワークフロー、評価器の設計、実験のセットアップ、回帰ゲート、不安定な/間違った評価結果のデバッグに使用します。 ソース: lubu-labs/langchain-agent-skills。

langgraph-testing-evaluation のインストール方法は?

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります

ソースリポジトリはどこですか?

https://github.com/lubu-labs/langchain-agent-skills