·run-ab-test-models
</>

run-ab-test-models

Concevez et exécutez des tests A/B pour les modèles ML en production à l'aide de stratégies de répartition du trafic, de tests de signification statistique et de déploiement Canary/Shadow. Mesurez les différences de performances et prenez des décisions basées sur les données concernant le déploiement du modèle. À utiliser pour valider une nouvelle version de modèle avant un déploiement complet, comparer des modèles candidats formés avec différents algorithmes, mesurer l'impact des mesures commerciales des modifications du modèle ou lorsque les exigences réglementaires imposent un déploiement progressif.

9Installations·1Tendance·@pjt222

Installation

$npx skills add https://github.com/pjt222/development-guides --skill run-ab-test-models

Comment installer run-ab-test-models

Installez rapidement le skill IA run-ab-test-models dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/pjt222/development-guides --skill run-ab-test-models
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : pjt222/development-guides.

Execute controlled experiments comparing model versions using traffic splitting and statistical analysis.

Define test parameters, success criteria, and statistical requirements.

Expected: Experiment configuration with statistically sound sample size calculation, typically 5-10k samples per variant for 5-10% MDE.

Concevez et exécutez des tests A/B pour les modèles ML en production à l'aide de stratégies de répartition du trafic, de tests de signification statistique et de déploiement Canary/Shadow. Mesurez les différences de performances et prenez des décisions basées sur les données concernant le déploiement du modèle. À utiliser pour valider une nouvelle version de modèle avant un déploiement complet, comparer des modèles candidats formés avec différents algorithmes, mesurer l'impact des mesures commerciales des modifications du modèle ou lorsque les exigences réglementaires imposent un déploiement progressif. Source : pjt222/development-guides.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/pjt222/development-guides --skill run-ab-test-models
Catégorie
</>Développement
Vérifié
Première apparition
2026-03-10
Mis à jour
2026-03-11

Browse more skills from pjt222/development-guides

Réponses rapides

Qu'est-ce que run-ab-test-models ?

Concevez et exécutez des tests A/B pour les modèles ML en production à l'aide de stratégies de répartition du trafic, de tests de signification statistique et de déploiement Canary/Shadow. Mesurez les différences de performances et prenez des décisions basées sur les données concernant le déploiement du modèle. À utiliser pour valider une nouvelle version de modèle avant un déploiement complet, comparer des modèles candidats formés avec différents algorithmes, mesurer l'impact des mesures commerciales des modifications du modèle ou lorsque les exigences réglementaires imposent un déploiement progressif. Source : pjt222/development-guides.

Comment installer run-ab-test-models ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/pjt222/development-guides --skill run-ab-test-models Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/pjt222/development-guides