·deploy-ml-model-serving
</>

deploy-ml-model-serving

Implemente modelos de aprendizaje automático en la infraestructura de servicio de producción utilizando MLflow, BentoML o Seldon Core con puntos finales REST/gRPC, implemente capacidades de escalamiento automático, monitoreo y pruebas A/B para la inferencia de modelos de alto rendimiento a escala. Úselo al implementar modelos entrenados para inferencia en tiempo real, configurar API de predicción REST o gRPC, implementar escalado automático para carga variable, ejecutar pruebas A/B entre versiones de modelos o migrar de inferencia por lotes a tiempo real.

10Instalaciones·1Tendencia·@pjt222

Instalación

$npx skills add https://github.com/pjt222/development-guides --skill deploy-ml-model-serving

Cómo instalar deploy-ml-model-serving

Instala rápidamente el skill de IA deploy-ml-model-serving en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/pjt222/development-guides --skill deploy-ml-model-serving
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: pjt222/development-guides.

SKILL.md

Ver original

Deploy machine learning models to production with scalable serving infrastructure, monitoring, and A/B testing.

Use MLflow's built-in serving for quick deployment of scikit-learn, PyTorch, and TensorFlow models.

Expected: Model server starts successfully, responds to HTTP POST requests, returns predictions in JSON format, Docker container runs without errors.

Implemente modelos de aprendizaje automático en la infraestructura de servicio de producción utilizando MLflow, BentoML o Seldon Core con puntos finales REST/gRPC, implemente capacidades de escalamiento automático, monitoreo y pruebas A/B para la inferencia de modelos de alto rendimiento a escala. Úselo al implementar modelos entrenados para inferencia en tiempo real, configurar API de predicción REST o gRPC, implementar escalado automático para carga variable, ejecutar pruebas A/B entre versiones de modelos o migrar de inferencia por lotes a tiempo real. Fuente: pjt222/development-guides.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/pjt222/development-guides --skill deploy-ml-model-serving
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-03-10
Actualizado
2026-03-11

Browse more skills from pjt222/development-guides

Respuestas rápidas

¿Qué es deploy-ml-model-serving?

Implemente modelos de aprendizaje automático en la infraestructura de servicio de producción utilizando MLflow, BentoML o Seldon Core con puntos finales REST/gRPC, implemente capacidades de escalamiento automático, monitoreo y pruebas A/B para la inferencia de modelos de alto rendimiento a escala. Úselo al implementar modelos entrenados para inferencia en tiempo real, configurar API de predicción REST o gRPC, implementar escalado automático para carga variable, ejecutar pruebas A/B entre versiones de modelos o migrar de inferencia por lotes a tiempo real. Fuente: pjt222/development-guides.

¿Cómo instalo deploy-ml-model-serving?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/pjt222/development-guides --skill deploy-ml-model-serving Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/pjt222/development-guides