·model-serving
</>

model-serving

ancoleman/ai-design-components

Implementación de modelos LLM y ML para inferencia. Úselo cuando proporcione modelos en producción, cree API de IA u optimice la inferencia. Cubre vLLM (servicio LLM), TensorRT-LLM (optimización de GPU), Ollama (local), BentoML (implementación de ML), Triton (multimodelo), LangChain (orquestación), LlamaIndex (RAG) y patrones de transmisión.

7Instalaciones·0Tendencia·@ancoleman

Instalación

$npx skills add https://github.com/ancoleman/ai-design-components --skill model-serving

SKILL.md

Deploy LLM and ML models for production inference with optimized serving engines, streaming response patterns, and orchestration frameworks. Focuses on self-hosted model serving, GPU optimization, and integration with frontend applications.

This skill provides the backend serving layer for the ai-chat skill.

See references/langchain-orchestration.md and examples/langchain-rag-qdrant/ for complete patterns.

Implementación de modelos LLM y ML para inferencia. Úselo cuando proporcione modelos en producción, cree API de IA u optimice la inferencia. Cubre vLLM (servicio LLM), TensorRT-LLM (optimización de GPU), Ollama (local), BentoML (implementación de ML), Triton (multimodelo), LangChain (orquestación), LlamaIndex (RAG) y patrones de transmisión. Fuente: ancoleman/ai-design-components.

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/ancoleman/ai-design-components --skill model-serving
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-01
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es model-serving?

Implementación de modelos LLM y ML para inferencia. Úselo cuando proporcione modelos en producción, cree API de IA u optimice la inferencia. Cubre vLLM (servicio LLM), TensorRT-LLM (optimización de GPU), Ollama (local), BentoML (implementación de ML), Triton (multimodelo), LangChain (orquestación), LlamaIndex (RAG) y patrones de transmisión. Fuente: ancoleman/ai-design-components.

¿Cómo instalo model-serving?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/ancoleman/ai-design-components --skill model-serving Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/ancoleman/ai-design-components