·llm-integration
</>

llm-integration

yonatangross/orchestkit

Patrones de integración de LLM para llamadas de funciones, transmisión de respuestas, inferencia local con Ollama y personalización de ajustes. Úselo al implementar el uso de herramientas, transmisión SSE, implementación de modelos locales, ajuste fino de LoRA/QLoRA o API LLM de múltiples proveedores.

10Instalaciones·2Tendencia·@yonatangross

Instalación

$npx skills add https://github.com/yonatangross/orchestkit --skill llm-integration

SKILL.md

Patterns for integrating LLMs into production applications: tool use, streaming, local inference, and fine-tuning. Each category has individual rule files in rules/ loaded on-demand.

| Category | Rules | Impact | When to Use |

| Function Calling | 3 | CRITICAL | Tool definitions, parallel execution, input validation | | Streaming | 3 | HIGH | SSE endpoints, structured streaming, backpressure handling | | Local Inference | 3 | HIGH | Ollama setup, model selection, GPU optimization | | Fine-Tuning | 3 | HIGH | LoRA/QLoRA training, dataset preparation, evaluation |

Patrones de integración de LLM para llamadas de funciones, transmisión de respuestas, inferencia local con Ollama y personalización de ajustes. Úselo al implementar el uso de herramientas, transmisión SSE, implementación de modelos locales, ajuste fino de LoRA/QLoRA o API LLM de múltiples proveedores. Fuente: yonatangross/orchestkit.

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/yonatangross/orchestkit --skill llm-integration
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-17
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es llm-integration?

Patrones de integración de LLM para llamadas de funciones, transmisión de respuestas, inferencia local con Ollama y personalización de ajustes. Úselo al implementar el uso de herramientas, transmisión SSE, implementación de modelos locales, ajuste fino de LoRA/QLoRA o API LLM de múltiples proveedores. Fuente: yonatangross/orchestkit.

¿Cómo instalo llm-integration?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/yonatangross/orchestkit --skill llm-integration Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/yonatangross/orchestkit