·llama-cpp
</>

llama-cpp

ovachiever/droid-tings

Ejecuta inferencia LLM en CPU, Apple Silicon y GPU de consumo sin hardware NVIDIA. Úselo para implementación perimetral, Mac M1/M2/M3, GPU AMD/Intel o cuando CUDA no esté disponible. Admite la cuantificación GGUF (1,5-8 bits) para reducir la memoria y acelerar entre 4 y 10 veces en comparación con PyTorch en la CPU.

21Instalaciones·0Tendencia·@ovachiever

Instalación

$npx skills add https://github.com/ovachiever/droid-tings --skill llama-cpp

SKILL.md

Pure C/C++ LLM inference with minimal dependencies, optimized for CPUs and non-NVIDIA hardware.

| Format | Bits | Size (7B) | Speed | Quality | Use Case |

| Q4KM | 4.5 | 4.1 GB | Fast | Good | Recommended default | | Q4KS | 4.3 | 3.9 GB | Faster | Lower | Speed critical | | Q5KM | 5.5 | 4.8 GB | Medium | Better | Quality critical | | Q6K | 6.5 | 5.5 GB | Slower | Best | Maximum quality | | Q80 | 8.0 | 7.0 GB | Slow | Excellent | Minimal degradation | | Q2K | 2.5 | 2.7 GB | Fastest | Poor | Testing only |

Ejecuta inferencia LLM en CPU, Apple Silicon y GPU de consumo sin hardware NVIDIA. Úselo para implementación perimetral, Mac M1/M2/M3, GPU AMD/Intel o cuando CUDA no esté disponible. Admite la cuantificación GGUF (1,5-8 bits) para reducir la memoria y acelerar entre 4 y 10 veces en comparación con PyTorch en la CPU. Fuente: ovachiever/droid-tings.

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/ovachiever/droid-tings --skill llama-cpp
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-01
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es llama-cpp?

Ejecuta inferencia LLM en CPU, Apple Silicon y GPU de consumo sin hardware NVIDIA. Úselo para implementación perimetral, Mac M1/M2/M3, GPU AMD/Intel o cuando CUDA no esté disponible. Admite la cuantificación GGUF (1,5-8 bits) para reducir la memoria y acelerar entre 4 y 10 veces en comparación con PyTorch en la CPU. Fuente: ovachiever/droid-tings.

¿Cómo instalo llama-cpp?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/ovachiever/droid-tings --skill llama-cpp Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/ovachiever/droid-tings