Что такое phoenix-evals?
Создавайте и запускайте оценщики приложений AI/LLM с помощью Phoenix. Источник: arize-ai/phoenix.
Создавайте и запускайте оценщики приложений AI/LLM с помощью Phoenix.
Быстро установите AI-навык phoenix-evals в вашу среду разработки через командную строку
Источник: arize-ai/phoenix.
Build evaluators for AI/LLM applications. Code first, LLM for nuance, validate against humans.
| Setup | setup-python, setup-typescript | | Build code evaluator | evaluators-code-{python\|typescript} | | Build LLM evaluator | evaluators-llm-{python\|typescript}, evaluators-custom-templates | | Run experiment | experiments-running-{python\|typescript} | | Create dataset | experiments-datasets-{python\|typescript} |
| Validate evaluator | validation, validation-calibration-{python\|typescript} | | Analyze errors | error-analysis, axial-coding | | RAG evals | evaluators-rag | | Production | production-overview, production-guardrails |
Создавайте и запускайте оценщики приложений AI/LLM с помощью Phoenix. Источник: arize-ai/phoenix.
Стабильные поля и команды для ссылок в AI/поиске.
npx skills add https://github.com/arize-ai/phoenix --skill phoenix-evalsСоздавайте и запускайте оценщики приложений AI/LLM с помощью Phoenix. Источник: arize-ai/phoenix.
Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/arize-ai/phoenix --skill phoenix-evals После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw
https://github.com/arize-ai/phoenix