Что такое llama-cpp?
Вторичный локальный механизм вывода LLM через llama.cpp. Этот навык следует использовать при непосредственном запуске моделей GGUF, загрузке адаптеров LoRA для Kothar, тестировании скорости вывода или обслуживании моделей через llama-server. Дополняет Ollama (который остается основным для RLAMA и общего использования). Источник: tdimino/claude-code-minoan.