llama-cpp
✓在 CPU、Apple Silicon 和消费类 GPU 上运行 LLM 推理,无需 NVIDIA 硬件。用于边缘部署、M1/M2/M3 Mac、AMD/Intel GPU 或 CUDA 不可用时。支持 GGUF 量化(1.5-8 位),以减少内存,与 CPU 上的 PyTorch 相比,速度提高 4-10 倍。
SKILL.md
Pure C/C++ LLM inference with minimal dependencies, optimized for CPUs and non-NVIDIA hardware.
| Format | Bits | Size (7B) | Speed | Quality | Use Case |
| Q4KM | 4.5 | 4.1 GB | Fast | Good | Recommended default | | Q4KS | 4.3 | 3.9 GB | Faster | Lower | Speed critical | | Q5KM | 5.5 | 4.8 GB | Medium | Better | Quality critical | | Q6K | 6.5 | 5.5 GB | Slower | Best | Maximum quality | | Q80 | 8.0 | 7.0 GB | Slow | Excellent | Minimal degradation | | Q2K | 2.5 | 2.7 GB | Fastest | Poor | Testing only |
在 CPU、Apple Silicon 和消费类 GPU 上运行 LLM 推理,无需 NVIDIA 硬件。用于边缘部署、M1/M2/M3 Mac、AMD/Intel GPU 或 CUDA 不可用时。支持 GGUF 量化(1.5-8 位),以减少内存,与 CPU 上的 PyTorch 相比,速度提高 4-10 倍。 来源:ovachiever/droid-tings。
可引用信息
为搜索与 AI 引用准备的稳定字段与命令。
- 安装命令
npx skills add https://github.com/ovachiever/droid-tings --skill llama-cpp- 分类
- </>开发工具
- 认证
- ✓
- 收录时间
- 2026-02-01
- 更新时间
- 2026-02-18
快速解答
什么是 llama-cpp?
在 CPU、Apple Silicon 和消费类 GPU 上运行 LLM 推理,无需 NVIDIA 硬件。用于边缘部署、M1/M2/M3 Mac、AMD/Intel GPU 或 CUDA 不可用时。支持 GGUF 量化(1.5-8 位),以减少内存,与 CPU 上的 PyTorch 相比,速度提高 4-10 倍。 来源:ovachiever/droid-tings。
如何安装 llama-cpp?
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/ovachiever/droid-tings --skill llama-cpp 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code 或 Cursor 中使用
这个 Skill 的源码在哪?
https://github.com/ovachiever/droid-tings
详情
- 分类
- </>开发工具
- 来源
- skills.sh
- 收录时间
- 2026-02-01