Che cos'è model evaluator?
Valuta e confronta le prestazioni del modello ML con metodologie di test rigorose Fonte: eddiebe147/claude-settings.
Valuta e confronta le prestazioni del modello ML con metodologie di test rigorose
Installa rapidamente la skill AI model evaluator nel tuo ambiente di sviluppo tramite riga di comando
Fonte: eddiebe147/claude-settings.
The Model Evaluator skill helps you rigorously assess and compare machine learning model performance across multiple dimensions. It guides you through selecting appropriate metrics, designing evaluation protocols, avoiding common statistical pitfalls, and making data-driven decisions about model selection.
Proper model evaluation goes beyond accuracy scores. This skill covers evaluation across the full spectrum: predictive performance, computational efficiency, robustness, fairness, calibration, and production readiness. It helps you answer not just "which model is best?" but "which model is best for my specific use case and constraints?"
Whether you are comparing LLMs, classifiers, or custom models, this skill ensures your evaluation methodology is sound and your conclusions are reliable.
Valuta e confronta le prestazioni del modello ML con metodologie di test rigorose Fonte: eddiebe147/claude-settings.
Campi e comandi stabili per citazioni AI/ricerca.
npx skills add https://github.com/eddiebe147/claude-settings --skill model evaluatorValuta e confronta le prestazioni del modello ML con metodologie di test rigorose Fonte: eddiebe147/claude-settings.
Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/eddiebe147/claude-settings --skill model evaluator Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw
https://github.com/eddiebe147/claude-settings