This skill covers production-grade techniques for evaluating LLM outputs using LLMs as judges. It synthesizes research from academic papers, industry practices, and practical implementation experience into actionable patterns for building reliable evaluation systems.
Key insight: LLM-as-a-Judge is not a single technique but a family of approaches, each suited to different evaluation contexts. Choosing the right approach and mitigating known biases is the core competency this skill develops.
Evaluation approaches fall into two primary categories with distinct reliability profiles:
Этот навык следует использовать, когда пользователь просит «реализовать LLM как судья», «сравнить результаты модели», «создать рубрики оценки», «уменьшить предвзятость оценки» или упоминает прямой подсчет очков, парное сравнение, предвзятость позиции, конвейеры оценки или автоматическую оценку качества. Источник: muratcankoylan/agent-skills-for-context-engineering.