¿Qué es deploy-ml-model-serving?
Implemente modelos de aprendizaje automático en la infraestructura de servicio de producción utilizando MLflow, BentoML o Seldon Core con puntos finales REST/gRPC, implemente capacidades de escalamiento automático, monitoreo y pruebas A/B para la inferencia de modelos de alto rendimiento a escala. Úselo al implementar modelos entrenados para inferencia en tiempo real, configurar API de predicción REST o gRPC, implementar escalado automático para carga variable, ejecutar pruebas A/B entre versiones de modelos o migrar de inferencia por lotes a tiempo real. Fuente: pjt222/development-guides.