ما هي phoenix-evals؟
إنشاء وتشغيل مقيمين لتطبيقات الذكاء الاصطناعي/LLM باستخدام Phoenix. المصدر: arize-ai/phoenix.
إنشاء وتشغيل مقيمين لتطبيقات الذكاء الاصطناعي/LLM باستخدام Phoenix.
ثبّت مهارة الذكاء الاصطناعي phoenix-evals بسرعة في بيئة التطوير لديك عبر سطر الأوامر
المصدر: arize-ai/phoenix.
Build evaluators for AI/LLM applications. Code first, LLM for nuance, validate against humans.
| Setup | setup-python, setup-typescript | | Build code evaluator | evaluators-code-{python\|typescript} | | Build LLM evaluator | evaluators-llm-{python\|typescript}, evaluators-custom-templates | | Run experiment | experiments-running-{python\|typescript} | | Create dataset | experiments-datasets-{python\|typescript} |
| Validate evaluator | validation, validation-calibration-{python\|typescript} | | Analyze errors | error-analysis, axial-coding | | RAG evals | evaluators-rag | | Production | production-overview, production-guardrails |
إنشاء وتشغيل مقيمين لتطبيقات الذكاء الاصطناعي/LLM باستخدام Phoenix. المصدر: arize-ai/phoenix.
حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.
npx skills add https://github.com/arize-ai/phoenix --skill phoenix-evalsإنشاء وتشغيل مقيمين لتطبيقات الذكاء الاصطناعي/LLM باستخدام Phoenix. المصدر: arize-ai/phoenix.
افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/arize-ai/phoenix --skill phoenix-evals بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw
https://github.com/arize-ai/phoenix