Qu'est-ce que deploy-ml-model-serving ?
Déployez des modèles d'apprentissage automatique sur une infrastructure de production à l'aide de MLflow, BentoML ou Seldon Core avec des points de terminaison REST/gRPC, implémentez des capacités de mise à l'échelle automatique, de surveillance et de test A/B pour une inférence de modèle hautes performances à grande échelle. À utiliser lors du déploiement de modèles entraînés pour l'inférence en temps réel, de la configuration d'API de prédiction REST ou gRPC, de la mise en œuvre de la mise à l'échelle automatique pour la charge variable, de l'exécution de tests A/B entre les versions de modèle ou de la migration d'une inférence par lots vers une inférence en temps réel. Source : pjt222/development-guides.