Che cos'è deploy-ml-model-serving?
Distribuisci modelli di machine learning all'infrastruttura di produzione utilizzando MLflow, BentoML o Seldon Core con endpoint REST/gRPC, implementa funzionalità di scalabilità automatica, monitoraggio e test A/B per l'inferenza del modello ad alte prestazioni su larga scala. Da utilizzare durante la distribuzione di modelli addestrati per l'inferenza in tempo reale, la configurazione di API di previsione REST o gRPC, l'implementazione della scalabilità automatica per il carico variabile, l'esecuzione di test A/B tra versioni del modello o la migrazione dall'inferenza batch all'inferenza in tempo reale. Fonte: pjt222/development-guides.