llama-cpp
✓Ejecuta inferencia LLM en CPU, Apple Silicon y GPU de consumo sin hardware NVIDIA. Úselo para implementación perimetral, Mac M1/M2/M3, GPU AMD/Intel o cuando CUDA no esté disponible. Admite la cuantificación GGUF (1,5-8 bits) para reducir la memoria y acelerar entre 4 y 10 veces en comparación con PyTorch en la CPU.
Instalación
SKILL.md
Pure C/C++ LLM inference with minimal dependencies, optimized for CPUs and non-NVIDIA hardware.
| Format | Bits | Size (7B) | Speed | Quality | Use Case |
| Q4KM | 4.5 | 4.1 GB | Fast | Good | Recommended default | | Q4KS | 4.3 | 3.9 GB | Faster | Lower | Speed critical | | Q5KM | 5.5 | 4.8 GB | Medium | Better | Quality critical | | Q6K | 6.5 | 5.5 GB | Slower | Best | Maximum quality | | Q80 | 8.0 | 7.0 GB | Slow | Excellent | Minimal degradation | | Q2K | 2.5 | 2.7 GB | Fastest | Poor | Testing only |
Ejecuta inferencia LLM en CPU, Apple Silicon y GPU de consumo sin hardware NVIDIA. Úselo para implementación perimetral, Mac M1/M2/M3, GPU AMD/Intel o cuando CUDA no esté disponible. Admite la cuantificación GGUF (1,5-8 bits) para reducir la memoria y acelerar entre 4 y 10 veces en comparación con PyTorch en la CPU. Fuente: ovachiever/droid-tings.
Datos (listos para citar)
Campos y comandos estables para citas de IA/búsqueda.
- Comando de instalación
npx skills add https://github.com/ovachiever/droid-tings --skill llama-cpp- Fuente
- ovachiever/droid-tings
- Categoría
- </>Desarrollo
- Verificado
- ✓
- Primera vez visto
- 2026-02-01
- Actualizado
- 2026-02-18
Respuestas rápidas
¿Qué es llama-cpp?
Ejecuta inferencia LLM en CPU, Apple Silicon y GPU de consumo sin hardware NVIDIA. Úselo para implementación perimetral, Mac M1/M2/M3, GPU AMD/Intel o cuando CUDA no esté disponible. Admite la cuantificación GGUF (1,5-8 bits) para reducir la memoria y acelerar entre 4 y 10 veces en comparación con PyTorch en la CPU. Fuente: ovachiever/droid-tings.
¿Cómo instalo llama-cpp?
Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/ovachiever/droid-tings --skill llama-cpp Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor
¿Dónde está el repositorio de origen?
https://github.com/ovachiever/droid-tings
Detalles
- Categoría
- </>Desarrollo
- Fuente
- skills.sh
- Primera vez visto
- 2026-02-01