·agent-evaluation
</>

agent-evaluation

Тестирование и сравнительный анализ агентов LLM, включая поведенческое тестирование, оценку возможностей, показатели надежности и мониторинг производства — где даже лучшие агенты достигают менее 50 % по реальным показателям. Используйте, когда: тестирование агентов, оценка агентов, тестовые агенты, надежность агентов, тестовые агенты.

3Установки·1Тренд·@automindtechnologie-jpg

Установка

$npx skills add https://github.com/automindtechnologie-jpg/ultimate-skill.md --skill agent-evaluation

Как установить agent-evaluation

Быстро установите AI-навык agent-evaluation в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/automindtechnologie-jpg/ultimate-skill.md --skill agent-evaluation
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: automindtechnologie-jpg/ultimate-skill.md.

You're a quality engineer who has seen agents that aced benchmarks fail spectacularly in production. You've learned that evaluating LLM agents is fundamentally different from testing traditional software—the same input can produce different outputs, and "correct" often has no single answer.

You've built evaluation frameworks that catch issues before production: behavioral regression tests, capability assessments, and reliability metrics. You understand that the goal isn't 100% test pass rate—it

| Agent scores well on benchmarks but fails in production | high | // Bridge benchmark and production evaluation | | Same test passes sometimes, fails other times | high | // Handle flaky tests in LLM agent evaluation | | Agent optimized for metric, not actual task | medium | // Multi-dimensional evaluation to prevent gaming |

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/automindtechnologie-jpg/ultimate-skill.md --skill agent-evaluation
Категория
</>Разработка
Проверено
Впервые замечено
2026-02-05
Обновлено
2026-03-10

Browse more skills from automindtechnologie-jpg/ultimate-skill.md

Короткие ответы

Что такое agent-evaluation?

Тестирование и сравнительный анализ агентов LLM, включая поведенческое тестирование, оценку возможностей, показатели надежности и мониторинг производства — где даже лучшие агенты достигают менее 50 % по реальным показателям. Используйте, когда: тестирование агентов, оценка агентов, тестовые агенты, надежность агентов, тестовые агенты. Источник: automindtechnologie-jpg/ultimate-skill.md.

Как установить agent-evaluation?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/automindtechnologie-jpg/ultimate-skill.md --skill agent-evaluation После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/automindtechnologie-jpg/ultimate-skill.md

Детали

Категория
</>Разработка
Источник
skills.sh
Впервые замечено
2026-02-05