data-science-model-evaluation이란?
모델 평가 및 검증: 교차 검증, 지표, 하이퍼파라미터 튜닝, 모델 비교. 모델 성능을 평가하거나, 모델을 선택하거나, 모델링 문제를 진단할 때 사용합니다. 출처: legout/data-platform-agent-skills.
모델 평가 및 검증: 교차 검증, 지표, 하이퍼파라미터 튜닝, 모델 비교. 모델 성능을 평가하거나, 모델을 선택하거나, 모델링 문제를 진단할 때 사용합니다.
명령줄에서 data-science-model-evaluation AI 스킬을 개발 환경에 빠르게 설치
출처: legout/data-platform-agent-skills.
Use this skill for rigorously assessing model performance, comparing alternatives, and diagnosing issues.
| Cross-validation | sklearn.modelselection | Standard CV, stratified, time series | | Metrics | sklearn.metrics | Comprehensive metric suite | | Hyperparameter tuning | Optuna or Ray Tune | Efficient search algorithms | | Model comparison | scikit-learn + statistical tests | Paired comparisons |
| Experiment tracking | MLflow or Weights & Biases | Track runs, metrics, artifacts |
모델 평가 및 검증: 교차 검증, 지표, 하이퍼파라미터 튜닝, 모델 비교. 모델 성능을 평가하거나, 모델을 선택하거나, 모델링 문제를 진단할 때 사용합니다. 출처: legout/data-platform-agent-skills.
AI/검색 인용용 안정적인 필드와 명령어.
npx skills add https://github.com/legout/data-platform-agent-skills --skill data-science-model-evaluation모델 평가 및 검증: 교차 검증, 지표, 하이퍼파라미터 튜닝, 모델 비교. 모델 성능을 평가하거나, 모델을 선택하거나, 모델링 문제를 진단할 때 사용합니다. 출처: legout/data-platform-agent-skills.
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/legout/data-platform-agent-skills --skill data-science-model-evaluation 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다
https://github.com/legout/data-platform-agent-skills