·eval-audit
{}

eval-audit

Проведите аудит конвейера оценки LLM и выявите проблемы: отсутствующий анализ ошибок, непроверенные судьи, тщеславные метрики и т. д. Используйте при наследовании системы оценки, если вы не уверены в надежности оценок, или в качестве отправной точки, когда оценочная инфраструктура не существует. НЕ используйте, если целью является создание нового оценщика с нуля (вместо этого используйте анализ ошибок, подсказку для записи или проверку оценщика).

81Установки·3Тренд·@hamelsmu

Установка

$npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit

Как установить eval-audit

Быстро установите AI-навык eval-audit в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: hamelsmu/evals-skills.

Inspect an LLM eval pipeline and produce a prioritized list of problems with concrete next steps.

Access to eval artifacts (traces, evaluator configs, judge prompts, labeled data) via an observability MCP server or local files. If none exist, skip to "No Eval Infrastructure."

Check whether the user has an observability MCP server connected (Phoenix, Braintrust, LangSmith, Truesight or similar). If available, use it to pull traces, evaluator definitions, and experiment results. If not, ask for local files: CSVs, JSON trace exports, notebooks, or evaluation scripts.

Проведите аудит конвейера оценки LLM и выявите проблемы: отсутствующий анализ ошибок, непроверенные судьи, тщеславные метрики и т. д. Используйте при наследовании системы оценки, если вы не уверены в надежности оценок, или в качестве отправной точки, когда оценочная инфраструктура не существует. НЕ используйте, если целью является создание нового оценщика с нуля (вместо этого используйте анализ ошибок, подсказку для записи или проверку оценщика). Источник: hamelsmu/evals-skills.

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit
Источник
hamelsmu/evals-skills
Категория
{}Аналитика
Проверено
Впервые замечено
2026-03-04
Обновлено
2026-03-10

Browse more skills from hamelsmu/evals-skills

Короткие ответы

Что такое eval-audit?

Проведите аудит конвейера оценки LLM и выявите проблемы: отсутствующий анализ ошибок, непроверенные судьи, тщеславные метрики и т. д. Используйте при наследовании системы оценки, если вы не уверены в надежности оценок, или в качестве отправной точки, когда оценочная инфраструктура не существует. НЕ используйте, если целью является создание нового оценщика с нуля (вместо этого используйте анализ ошибок, подсказку для записи или проверку оценщика). Источник: hamelsmu/evals-skills.

Как установить eval-audit?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/hamelsmu/evals-skills

Детали

Категория
{}Аналитика
Источник
skills.sh
Впервые замечено
2026-03-04