¿Qué es llama-cpp?
Motor de inferencia LLM local secundario a través de llama.cpp. Esta habilidad debe usarse al ejecutar modelos GGUF directamente, cargar adaptadores LoRA para Kothar, comparar la velocidad de inferencia o servir modelos a través del servidor llama. Complementa a Ollama (que sigue siendo primario para RLAMA y uso general). Fuente: tdimino/claude-code-minoan.