·write-judge-prompt
</>

write-judge-prompt

Создавайте оценщиков LLM-as-Judge с учетом субъективных критериев, с которыми не могут справиться проверки на основе кода. Используйте, когда вид отказа требует интерпретации (тон, достоверность, актуальность, полнота). НЕ используйте, если режим сбоя можно проверить с помощью кода (регулярное выражение, проверка схемы, тесты выполнения). НЕ используйте, когда вам нужно проверить или откалибровать судью — вместо этого используйте validate-evaluator.

76Установки·3Тренд·@hamelsmu

Установка

$npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt

Как установить write-judge-prompt

Быстро установите AI-навык write-judge-prompt в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: hamelsmu/evals-skills.

Design a binary Pass/Fail LLM-as-Judge evaluator for one specific failure mode. Each judge checks exactly one thing.

State what the judge evaluates. One failure mode per judge.

Not: "Evaluate whether the email is good" or "Rate the email quality from 1-5."

Создавайте оценщиков LLM-as-Judge с учетом субъективных критериев, с которыми не могут справиться проверки на основе кода. Используйте, когда вид отказа требует интерпретации (тон, достоверность, актуальность, полнота). НЕ используйте, если режим сбоя можно проверить с помощью кода (регулярное выражение, проверка схемы, тесты выполнения). НЕ используйте, когда вам нужно проверить или откалибровать судью — вместо этого используйте validate-evaluator. Источник: hamelsmu/evals-skills.

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt
Источник
hamelsmu/evals-skills
Категория
</>Разработка
Проверено
Впервые замечено
2026-03-04
Обновлено
2026-03-10

Browse more skills from hamelsmu/evals-skills

Короткие ответы

Что такое write-judge-prompt?

Создавайте оценщиков LLM-as-Judge с учетом субъективных критериев, с которыми не могут справиться проверки на основе кода. Используйте, когда вид отказа требует интерпретации (тон, достоверность, актуальность, полнота). НЕ используйте, если режим сбоя можно проверить с помощью кода (регулярное выражение, проверка схемы, тесты выполнения). НЕ используйте, когда вам нужно проверить или откалибровать судью — вместо этого используйте validate-evaluator. Источник: hamelsmu/evals-skills.

Как установить write-judge-prompt?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/hamelsmu/evals-skills

Детали

Категория
</>Разработка
Источник
skills.sh
Впервые замечено
2026-03-04