·llama-cpp
</>

llama-cpp

Вторичный локальный механизм вывода LLM через llama.cpp. Этот навык следует использовать при непосредственном запуске моделей GGUF, загрузке адаптеров LoRA для Kothar, тестировании скорости вывода или обслуживании моделей через llama-server. Дополняет Ollama (который остается основным для RLAMA и общего использования).

24Установки·1Тренд·@tdimino

Установка

$npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp

Как установить llama-cpp

Быстро установите AI-навык llama-cpp в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: tdimino/claude-code-minoan.

Direct access to llama.cpp for faster inference, LoRA adapter loading, and benchmarking on Apple Silicon. Ollama remains primary for RLAMA and general use; llama.cpp is the power tool.

To avoid duplicating model files, resolve an Ollama model name to its GGUF blob path:

To start an OpenAI-compatible server (port 8081, avoids Ollama's 11434):

Вторичный локальный механизм вывода LLM через llama.cpp. Этот навык следует использовать при непосредственном запуске моделей GGUF, загрузке адаптеров LoRA для Kothar, тестировании скорости вывода или обслуживании моделей через llama-server. Дополняет Ollama (который остается основным для RLAMA и общего использования). Источник: tdimino/claude-code-minoan.

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp
Категория
</>Разработка
Проверено
Впервые замечено
2026-03-01
Обновлено
2026-03-11

Browse more skills from tdimino/claude-code-minoan

Короткие ответы

Что такое llama-cpp?

Вторичный локальный механизм вывода LLM через llama.cpp. Этот навык следует использовать при непосредственном запуске моделей GGUF, загрузке адаптеров LoRA для Kothar, тестировании скорости вывода или обслуживании моделей через llama-server. Дополняет Ollama (который остается основным для RLAMA и общего использования). Источник: tdimino/claude-code-minoan.

Как установить llama-cpp?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/tdimino/claude-code-minoan

Детали

Категория
</>Разработка
Источник
skills.sh
Впервые замечено
2026-03-01