·llm-evaluation
</>

llm-evaluation

Внедряйте комплексные стратегии оценки приложений LLM с использованием автоматизированных показателей, обратной связи с людьми и сравнительного анализа. Используйте при тестировании производительности LLM, измерении качества приложений ИИ или создании систем оценки.

87Установки·2Тренд·@sickn33

Установка

$npx skills add https://github.com/sickn33/antigravity-awesome-skills --skill llm-evaluation

Как установить llm-evaluation

Быстро установите AI-навык llm-evaluation в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/sickn33/antigravity-awesome-skills --skill llm-evaluation
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: sickn33/antigravity-awesome-skills.

Master comprehensive evaluation strategies for LLM applications, from automated metrics to human evaluation and A/B testing.

Automated Metrics Fast, repeatable, scalable evaluation using computed scores.

Human Evaluation Manual assessment for quality aspects difficult to automate.

Внедряйте комплексные стратегии оценки приложений LLM с использованием автоматизированных показателей, обратной связи с людьми и сравнительного анализа. Используйте при тестировании производительности LLM, измерении качества приложений ИИ или создании систем оценки. Источник: sickn33/antigravity-awesome-skills.

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/sickn33/antigravity-awesome-skills --skill llm-evaluation
Категория
</>Разработка
Проверено
Впервые замечено
2026-02-01
Обновлено
2026-03-10

Browse more skills from sickn33/antigravity-awesome-skills

Короткие ответы

Что такое llm-evaluation?

Внедряйте комплексные стратегии оценки приложений LLM с использованием автоматизированных показателей, обратной связи с людьми и сравнительного анализа. Используйте при тестировании производительности LLM, измерении качества приложений ИИ или создании систем оценки. Источник: sickn33/antigravity-awesome-skills.

Как установить llm-evaluation?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/sickn33/antigravity-awesome-skills --skill llm-evaluation После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/sickn33/antigravity-awesome-skills

Детали

Категория
</>Разработка
Источник
skills.sh
Впервые замечено
2026-02-01