·llm-evaluation
</>

llm-evaluation

Быстрое тестирование, оценка LLM и контроль качества CI/CD с использованием Promptfoo. Вызов когда: - Настройка оперативной оценки или регрессионного тестирования. - Интеграция LLM-тестирования в конвейеры CI/CD. - Настройка тестирования безопасности (красная команда, джейлбрейки) - Сравнение производительности подсказки или модели - Создание пакетов оценки для RAG, фактов или безопасности. Ключевые слова: Promptfoo, оценка llm, оперативное тестирование, красная команда, CI/CD, регрессионное тестирование.

23Установки·0Тренд·@phrazzld

Установка

$npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation

Как установить llm-evaluation

Быстро установите AI-навык llm-evaluation в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: phrazzld/claude-config.

Test prompts, models, and RAG systems with automated evaluation and CI/CD integration.

LLM outputs are non-deterministic. "It looks good" isn't testing. You need:

| Functional | Does it work? | contains, equals, is-json | | Semantic | Is it correct? | similar, llm-rubric, factuality | | Performance | Is it fast/cheap? | cost, latency | | Security | Is it safe? | redteam, moderation, pii-detection |

Быстрое тестирование, оценка LLM и контроль качества CI/CD с использованием Promptfoo. Вызов когда: - Настройка оперативной оценки или регрессионного тестирования. - Интеграция LLM-тестирования в конвейеры CI/CD. - Настройка тестирования безопасности (красная команда, джейлбрейки) - Сравнение производительности подсказки или модели - Создание пакетов оценки для RAG, фактов или безопасности. Ключевые слова: Promptfoo, оценка llm, оперативное тестирование, красная команда, CI/CD, регрессионное тестирование. Источник: phrazzld/claude-config.

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation
Источник
phrazzld/claude-config
Категория
</>Разработка
Проверено
Впервые замечено
2026-02-01
Обновлено
2026-03-11

Browse more skills from phrazzld/claude-config

Короткие ответы

Что такое llm-evaluation?

Быстрое тестирование, оценка LLM и контроль качества CI/CD с использованием Promptfoo. Вызов когда: - Настройка оперативной оценки или регрессионного тестирования. - Интеграция LLM-тестирования в конвейеры CI/CD. - Настройка тестирования безопасности (красная команда, джейлбрейки) - Сравнение производительности подсказки или модели - Создание пакетов оценки для RAG, фактов или безопасности. Ключевые слова: Promptfoo, оценка llm, оперативное тестирование, красная команда, CI/CD, регрессионное тестирование. Источник: phrazzld/claude-config.

Как установить llm-evaluation?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/phrazzld/claude-config

Детали

Категория
</>Разработка
Источник
skills.sh
Впервые замечено
2026-02-01