·eval-audit

قم بتدقيق خط أنابيب تقييم LLM والمشكلات السطحية: تحليل الأخطاء المفقودة، والقضاة الذين لم يتم التحقق من صحتهم، ومقاييس الغرور، وما إلى ذلك. استخدم عند وراثة نظام التقييم، عندما لا تكون متأكدًا مما إذا كانت التقييمات جديرة بالثقة، أو كنقطة بداية عندما لا توجد بنية تحتية للتقييم. لا تستخدم عندما يكون الهدف هو بناء مقيم جديد من الصفر (استخدم تحليل الأخطاء، أو مطالبة الحكم بالكتابة، أو التحقق من صحة المقيم بدلاً من ذلك).

81التثبيتات·3الرائج·@hamelsmu

التثبيت

$npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit

كيفية تثبيت eval-audit

ثبّت مهارة الذكاء الاصطناعي eval-audit بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: hamelsmu/evals-skills.

Inspect an LLM eval pipeline and produce a prioritized list of problems with concrete next steps.

Access to eval artifacts (traces, evaluator configs, judge prompts, labeled data) via an observability MCP server or local files. If none exist, skip to "No Eval Infrastructure."

Check whether the user has an observability MCP server connected (Phoenix, Braintrust, LangSmith, Truesight or similar). If available, use it to pull traces, evaluator definitions, and experiment results. If not, ask for local files: CSVs, JSON trace exports, notebooks, or evaluation scripts.

قم بتدقيق خط أنابيب تقييم LLM والمشكلات السطحية: تحليل الأخطاء المفقودة، والقضاة الذين لم يتم التحقق من صحتهم، ومقاييس الغرور، وما إلى ذلك. استخدم عند وراثة نظام التقييم، عندما لا تكون متأكدًا مما إذا كانت التقييمات جديرة بالثقة، أو كنقطة بداية عندما لا توجد بنية تحتية للتقييم. لا تستخدم عندما يكون الهدف هو بناء مقيم جديد من الصفر (استخدم تحليل الأخطاء، أو مطالبة الحكم بالكتابة، أو التحقق من صحة المقيم بدلاً من ذلك). المصدر: hamelsmu/evals-skills.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit
الفئة
{}تحليل البيانات
موثق
أول ظهور
2026-03-04
آخر تحديث
2026-03-10

Browse more skills from hamelsmu/evals-skills

إجابات سريعة

ما هي eval-audit؟

قم بتدقيق خط أنابيب تقييم LLM والمشكلات السطحية: تحليل الأخطاء المفقودة، والقضاة الذين لم يتم التحقق من صحتهم، ومقاييس الغرور، وما إلى ذلك. استخدم عند وراثة نظام التقييم، عندما لا تكون متأكدًا مما إذا كانت التقييمات جديرة بالثقة، أو كنقطة بداية عندما لا توجد بنية تحتية للتقييم. لا تستخدم عندما يكون الهدف هو بناء مقيم جديد من الصفر (استخدم تحليل الأخطاء، أو مطالبة الحكم بالكتابة، أو التحقق من صحة المقيم بدلاً من ذلك). المصدر: hamelsmu/evals-skills.

كيف أثبّت eval-audit؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/hamelsmu/evals-skills