llama-cpp
✓Führt LLM-Inferenz auf CPU, Apple Silicon und Consumer-GPUs ohne NVIDIA-Hardware aus. Verwendung für Edge-Bereitstellung, M1/M2/M3-Macs, AMD/Intel-GPUs oder wenn CUDA nicht verfügbar ist. Unterstützt GGUF-Quantisierung (1,5–8 Bit) für reduzierten Speicher und 4–10-fache Beschleunigung gegenüber PyTorch auf der CPU.
Installation
SKILL.md
Pure C/C++ LLM inference with minimal dependencies, optimized for CPUs and non-NVIDIA hardware.
| Format | Bits | Size (7B) | Speed | Quality | Use Case |
| Q4KM | 4.5 | 4.1 GB | Fast | Good | Recommended default | | Q4KS | 4.3 | 3.9 GB | Faster | Lower | Speed critical | | Q5KM | 5.5 | 4.8 GB | Medium | Better | Quality critical | | Q6K | 6.5 | 5.5 GB | Slower | Best | Maximum quality | | Q80 | 8.0 | 7.0 GB | Slow | Excellent | Minimal degradation | | Q2K | 2.5 | 2.7 GB | Fastest | Poor | Testing only |
Führt LLM-Inferenz auf CPU, Apple Silicon und Consumer-GPUs ohne NVIDIA-Hardware aus. Verwendung für Edge-Bereitstellung, M1/M2/M3-Macs, AMD/Intel-GPUs oder wenn CUDA nicht verfügbar ist. Unterstützt GGUF-Quantisierung (1,5–8 Bit) für reduzierten Speicher und 4–10-fache Beschleunigung gegenüber PyTorch auf der CPU. Quelle: ovachiever/droid-tings.
Fakten (zitierbereit)
Stabile Felder und Befehle für KI/Such-Zitate.
- Installationsbefehl
npx skills add https://github.com/ovachiever/droid-tings --skill llama-cpp- Quelle
- ovachiever/droid-tings
- Kategorie
- </>Entwicklung
- Verifiziert
- ✓
- Erstes Auftreten
- 2026-02-01
- Aktualisiert
- 2026-02-18
Schnelle Antworten
Was ist llama-cpp?
Führt LLM-Inferenz auf CPU, Apple Silicon und Consumer-GPUs ohne NVIDIA-Hardware aus. Verwendung für Edge-Bereitstellung, M1/M2/M3-Macs, AMD/Intel-GPUs oder wenn CUDA nicht verfügbar ist. Unterstützt GGUF-Quantisierung (1,5–8 Bit) für reduzierten Speicher und 4–10-fache Beschleunigung gegenüber PyTorch auf der CPU. Quelle: ovachiever/droid-tings.
Wie installiere ich llama-cpp?
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/ovachiever/droid-tings --skill llama-cpp Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Wo ist das Quell-Repository?
https://github.com/ovachiever/droid-tings
Details
- Kategorie
- </>Entwicklung
- Quelle
- skills.sh
- Erstes Auftreten
- 2026-02-01