Что такое deploy-ml-model-serving?
Развертывайте модели машинного обучения в производственной обслуживающей инфраструктуре с помощью MLflow, BentoML или Seldon Core с конечными точками REST/gRPC, реализуйте возможности автоматического масштабирования, мониторинга и A/B-тестирования для высокопроизводительного вывода моделей в масштабе. Используйте при развертывании обученных моделей для вывода в реальном времени, настройке API прогнозирования REST или gRPC, реализации автоматического масштабирования для переменной нагрузки, запуске A/B-тестов между версиями модели или переходе от пакетного вывода к выводу в реальном времени. Источник: pjt222/development-guides.