ما هي llama-cpp؟
محرك استدلال LLM المحلي الثانوي عبر llama.cpp. يجب استخدام هذه المهارة عند تشغيل نماذج GGUF مباشرة، أو تحميل محولات LoRA لـ Kothar، أو قياس سرعة الاستدلال، أو تقديم النماذج عبر خادم اللاما. يكمل Ollama (الذي يظل أساسيًا لـ RLAMA والاستخدام العام). المصدر: tdimino/claude-code-minoan.