·llm-evaluation
</>

llm-evaluation

Внедряйте комплексные стратегии оценки приложений LLM с использованием автоматизированных показателей, обратной связи с людьми и сравнительного анализа. Используйте при тестировании производительности LLM, измерении качества приложений ИИ или создании систем оценки.

3.0KУстановки·36Тренд·@wshobson

Установка

$npx skills add https://github.com/wshobson/agents --skill llm-evaluation

Как установить llm-evaluation

Быстро установите AI-навык llm-evaluation в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/wshobson/agents --skill llm-evaluation
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: wshobson/agents.

Master comprehensive evaluation strategies for LLM applications, from automated metrics to human evaluation and A/B testing.

Внедряйте комплексные стратегии оценки приложений LLM с использованием автоматизированных показателей, обратной связи с людьми и сравнительного анализа. Используйте при тестировании производительности LLM, измерении качества приложений ИИ или создании систем оценки. Источник: wshobson/agents.

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/wshobson/agents --skill llm-evaluation После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Сертификация безопасности для надёжного и безопасного кода Установка в один клик с упрощённой настройкой Совместимо с Claude Code, Cursor, OpenClaw и другими

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/wshobson/agents --skill llm-evaluation
Источник
wshobson/agents
Категория
</>Разработка
Проверено
Впервые замечено
2026-02-01
Обновлено
2026-03-10

Browse more skills from wshobson/agents

Короткие ответы

Что такое llm-evaluation?

Внедряйте комплексные стратегии оценки приложений LLM с использованием автоматизированных показателей, обратной связи с людьми и сравнительного анализа. Используйте при тестировании производительности LLM, измерении качества приложений ИИ или создании систем оценки. Источник: wshobson/agents.

Как установить llm-evaluation?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/wshobson/agents --skill llm-evaluation После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/wshobson/agents