data-science-model-evaluation とは?
モデルの評価と検証: 相互検証、メトリクス、ハイパーパラメーター調整、モデルの比較。モデルのパフォーマンスの評価、モデルの選択、またはモデリングの問題の診断時に使用します。 ソース: legout/data-platform-agent-skills。
モデルの評価と検証: 相互検証、メトリクス、ハイパーパラメーター調整、モデルの比較。モデルのパフォーマンスの評価、モデルの選択、またはモデリングの問題の診断時に使用します。
コマンドラインで data-science-model-evaluation AI スキルを開発環境にすばやくインストール
ソース: legout/data-platform-agent-skills。
Use this skill for rigorously assessing model performance, comparing alternatives, and diagnosing issues.
| Cross-validation | sklearn.modelselection | Standard CV, stratified, time series | | Metrics | sklearn.metrics | Comprehensive metric suite | | Hyperparameter tuning | Optuna or Ray Tune | Efficient search algorithms | | Model comparison | scikit-learn + statistical tests | Paired comparisons |
| Experiment tracking | MLflow or Weights & Biases | Track runs, metrics, artifacts |
モデルの評価と検証: 相互検証、メトリクス、ハイパーパラメーター調整、モデルの比較。モデルのパフォーマンスの評価、モデルの選択、またはモデリングの問題の診断時に使用します。 ソース: legout/data-platform-agent-skills。
AI/検索での引用用の安定したフィールドとコマンド。
npx skills add https://github.com/legout/data-platform-agent-skills --skill data-science-model-evaluationモデルの評価と検証: 相互検証、メトリクス、ハイパーパラメーター調整、モデルの比較。モデルのパフォーマンスの評価、モデルの選択、またはモデリングの問題の診断時に使用します。 ソース: legout/data-platform-agent-skills。
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/legout/data-platform-agent-skills --skill data-science-model-evaluation インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります
https://github.com/legout/data-platform-agent-skills