·deploy-ml-model-serving
</>

deploy-ml-model-serving

Déployez des modèles d'apprentissage automatique sur une infrastructure de production à l'aide de MLflow, BentoML ou Seldon Core avec des points de terminaison REST/gRPC, implémentez des capacités de mise à l'échelle automatique, de surveillance et de test A/B pour une inférence de modèle hautes performances à grande échelle. À utiliser lors du déploiement de modèles entraînés pour l'inférence en temps réel, de la configuration d'API de prédiction REST ou gRPC, de la mise en œuvre de la mise à l'échelle automatique pour la charge variable, de l'exécution de tests A/B entre les versions de modèle ou de la migration d'une inférence par lots vers une inférence en temps réel.

10Installations·1Tendance·@pjt222

Installation

$npx skills add https://github.com/pjt222/development-guides --skill deploy-ml-model-serving

Comment installer deploy-ml-model-serving

Installez rapidement le skill IA deploy-ml-model-serving dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/pjt222/development-guides --skill deploy-ml-model-serving
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : pjt222/development-guides.

Deploy machine learning models to production with scalable serving infrastructure, monitoring, and A/B testing.

Use MLflow's built-in serving for quick deployment of scikit-learn, PyTorch, and TensorFlow models.

Expected: Model server starts successfully, responds to HTTP POST requests, returns predictions in JSON format, Docker container runs without errors.

Déployez des modèles d'apprentissage automatique sur une infrastructure de production à l'aide de MLflow, BentoML ou Seldon Core avec des points de terminaison REST/gRPC, implémentez des capacités de mise à l'échelle automatique, de surveillance et de test A/B pour une inférence de modèle hautes performances à grande échelle. À utiliser lors du déploiement de modèles entraînés pour l'inférence en temps réel, de la configuration d'API de prédiction REST ou gRPC, de la mise en œuvre de la mise à l'échelle automatique pour la charge variable, de l'exécution de tests A/B entre les versions de modèle ou de la migration d'une inférence par lots vers une inférence en temps réel. Source : pjt222/development-guides.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/pjt222/development-guides --skill deploy-ml-model-serving
Catégorie
</>Développement
Vérifié
Première apparition
2026-03-10
Mis à jour
2026-03-10

Browse more skills from pjt222/development-guides

Réponses rapides

Qu'est-ce que deploy-ml-model-serving ?

Déployez des modèles d'apprentissage automatique sur une infrastructure de production à l'aide de MLflow, BentoML ou Seldon Core avec des points de terminaison REST/gRPC, implémentez des capacités de mise à l'échelle automatique, de surveillance et de test A/B pour une inférence de modèle hautes performances à grande échelle. À utiliser lors du déploiement de modèles entraînés pour l'inférence en temps réel, de la configuration d'API de prédiction REST ou gRPC, de la mise en œuvre de la mise à l'échelle automatique pour la charge variable, de l'exécution de tests A/B entre les versions de modèle ou de la migration d'une inférence par lots vers une inférence en temps réel. Source : pjt222/development-guides.

Comment installer deploy-ml-model-serving ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/pjt222/development-guides --skill deploy-ml-model-serving Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/pjt222/development-guides