·langgraph-testing-evaluation
</>

langgraph-testing-evaluation

استخدم هذه المهارة عندما تحتاج إلى اختبار أو تقييم وكلاء LangGraph/LangChain: كتابة اختبارات الوحدة أو التكامل، وإنشاء سقالات اختبار، والسخرية من سلوك LLM/الأداة، وتشغيل تقييم المسار (المطابقة أو LLM-as-قاضي)، وتشغيل تقييمات مجموعة بيانات LangSmith، ومقارنة إصدارين من الوكلاء مع تحليل دون اتصال بنمط A/B. استخدمه لسير عمل Python وJavaScript/TypeScript، وتصميم المُقيم، وإعداد التجربة، وبوابات الانحدار، وتصحيح نتائج التقييم غير الصحيحة/غير الصحيحة.

16التثبيتات·3الرائج·@lubu-labs

التثبيت

$npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation

كيفية تثبيت langgraph-testing-evaluation

ثبّت مهارة الذكاء الاصطناعي langgraph-testing-evaluation بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: lubu-labs/langchain-agent-skills.

Use this file for high-level flow. Load references/ for detailed implementation.

| Validate node logic quickly | Unit tests with mocks | references/unit-testing-patterns.md | | Validate multi-step agent behavior | Trajectory evaluation | references/trajectory-evaluation.md | | Track quality over datasets over time | LangSmith evaluation | references/langsmith-evaluation.md |

| Compare old vs new agent versions | A/B comparison | references/ab-testing.md |

استخدم هذه المهارة عندما تحتاج إلى اختبار أو تقييم وكلاء LangGraph/LangChain: كتابة اختبارات الوحدة أو التكامل، وإنشاء سقالات اختبار، والسخرية من سلوك LLM/الأداة، وتشغيل تقييم المسار (المطابقة أو LLM-as-قاضي)، وتشغيل تقييمات مجموعة بيانات LangSmith، ومقارنة إصدارين من الوكلاء مع تحليل دون اتصال بنمط A/B. استخدمه لسير عمل Python وJavaScript/TypeScript، وتصميم المُقيم، وإعداد التجربة، وبوابات الانحدار، وتصحيح نتائج التقييم غير الصحيحة/غير الصحيحة. المصدر: lubu-labs/langchain-agent-skills.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-22
آخر تحديث
2026-03-10

Browse more skills from lubu-labs/langchain-agent-skills

إجابات سريعة

ما هي langgraph-testing-evaluation؟

استخدم هذه المهارة عندما تحتاج إلى اختبار أو تقييم وكلاء LangGraph/LangChain: كتابة اختبارات الوحدة أو التكامل، وإنشاء سقالات اختبار، والسخرية من سلوك LLM/الأداة، وتشغيل تقييم المسار (المطابقة أو LLM-as-قاضي)، وتشغيل تقييمات مجموعة بيانات LangSmith، ومقارنة إصدارين من الوكلاء مع تحليل دون اتصال بنمط A/B. استخدمه لسير عمل Python وJavaScript/TypeScript، وتصميم المُقيم، وإعداد التجربة، وبوابات الانحدار، وتصحيح نتائج التقييم غير الصحيحة/غير الصحيحة. المصدر: lubu-labs/langchain-agent-skills.

كيف أثبّت langgraph-testing-evaluation؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/lubu-labs/langchain-agent-skills --skill langgraph-testing-evaluation بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/lubu-labs/langchain-agent-skills