什麼是 llama-cpp?
透過 llama.cpp 的輔助本地 LLM 推理引擎。當直接運行 GGUF 模型、為 Kothar 載入 LoRA 適配器、基準推理速度或透過 llama-server 提供模型服務時,應使用此技能。補充 Ollama(對於 RLAMA 和一般用途來說仍然是主要的)。 來源:tdimino/claude-code-minoan。
透過 llama.cpp 的輔助本地 LLM 推理引擎。當直接運行 GGUF 模型、為 Kothar 載入 LoRA 適配器、基準推理速度或透過 llama-server 提供模型服務時,應使用此技能。補充 Ollama(對於 RLAMA 和一般用途來說仍然是主要的)。
透過命令列快速安裝 llama-cpp AI 技能到你的開發環境
來源:tdimino/claude-code-minoan。
Direct access to llama.cpp for faster inference, LoRA adapter loading, and benchmarking on Apple Silicon. Ollama remains primary for RLAMA and general use; llama.cpp is the power tool.
To avoid duplicating model files, resolve an Ollama model name to its GGUF blob path:
To start an OpenAI-compatible server (port 8081, avoids Ollama's 11434):
透過 llama.cpp 的輔助本地 LLM 推理引擎。當直接運行 GGUF 模型、為 Kothar 載入 LoRA 適配器、基準推理速度或透過 llama-server 提供模型服務時,應使用此技能。補充 Ollama(對於 RLAMA 和一般用途來說仍然是主要的)。 來源:tdimino/claude-code-minoan。
為搜尋與 AI 引用準備的穩定欄位與指令。
npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp透過 llama.cpp 的輔助本地 LLM 推理引擎。當直接運行 GGUF 模型、為 Kothar 載入 LoRA 適配器、基準推理速度或透過 llama-server 提供模型服務時,應使用此技能。補充 Ollama(對於 RLAMA 和一般用途來說仍然是主要的)。 來源:tdimino/claude-code-minoan。
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/tdimino/claude-code-minoan