·llama-cpp
</>

llama-cpp

透過 llama.cpp 的輔助本地 LLM 推理引擎。當直接運行 GGUF 模型、為 Kothar 載入 LoRA 適配器、基準推理速度或透過 llama-server 提供模型服務時,應使用此技能。補充 Ollama(對於 RLAMA 和一般用途來說仍然是主要的)。

24安裝·1熱度·@tdimino

安裝

$npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp

如何安裝 llama-cpp

透過命令列快速安裝 llama-cpp AI 技能到你的開發環境

  1. 開啟終端機: 開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等)
  2. 執行安裝指令: 複製並執行以下指令:npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp
  3. 驗證安裝: 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用

來源:tdimino/claude-code-minoan。

SKILL.md

查看原文

Direct access to llama.cpp for faster inference, LoRA adapter loading, and benchmarking on Apple Silicon. Ollama remains primary for RLAMA and general use; llama.cpp is the power tool.

To avoid duplicating model files, resolve an Ollama model name to its GGUF blob path:

To start an OpenAI-compatible server (port 8081, avoids Ollama's 11434):

透過 llama.cpp 的輔助本地 LLM 推理引擎。當直接運行 GGUF 模型、為 Kothar 載入 LoRA 適配器、基準推理速度或透過 llama-server 提供模型服務時,應使用此技能。補充 Ollama(對於 RLAMA 和一般用途來說仍然是主要的)。 來源:tdimino/claude-code-minoan。

可引用資訊

為搜尋與 AI 引用準備的穩定欄位與指令。

安裝指令
npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp
分類
</>開發工具
認證
收錄時間
2026-03-01
更新時間
2026-03-11

Browse more skills from tdimino/claude-code-minoan

快速解答

什麼是 llama-cpp?

透過 llama.cpp 的輔助本地 LLM 推理引擎。當直接運行 GGUF 模型、為 Kothar 載入 LoRA 適配器、基準推理速度或透過 llama-server 提供模型服務時,應使用此技能。補充 Ollama(對於 RLAMA 和一般用途來說仍然是主要的)。 來源:tdimino/claude-code-minoan。

如何安裝 llama-cpp?

開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用

這個 Skill 的原始碼在哪?

https://github.com/tdimino/claude-code-minoan