·gguf-quantization
</>

gguf-quantization

orchestra-research/ai-research-skills

Formato GGUF y cuantificación llama.cpp para una inferencia eficiente de CPU/GPU. Úselo cuando implemente modelos en hardware de consumo, Apple Silicon, o cuando necesite una cuantificación flexible de 2 a 8 bits sin requisitos de GPU.

15Instalaciones·0Tendencia·@orchestra-research

Instalación

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill gguf-quantization

SKILL.md

The GGUF (GPT-Generated Unified Format) is the standard file format for llama.cpp, enabling efficient inference on CPUs, Apple Silicon, and GPUs with flexible quantization options.

| Type | Bits | Size (7B) | Quality | Use Case |

| Q2K | 2.5 | 2.8 GB | Low | Extreme compression | | Q3KS | 3.0 | 3.0 GB | Low-Med | Memory constrained | | Q3KM | 3.3 | 3.3 GB | Medium | Balance | | Q4KS | 4.0 | 3.8 GB | Med-High | Good balance | | Q4KM | 4.5 | 4.1 GB | High | Recommended default | | Q5KS | 5.0 | 4.6 GB | High | Quality focused | | Q5KM | 5.5 | 4.8 GB | Very High | High quality |

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/orchestra-research/ai-research-skills --skill gguf-quantization
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-11
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es gguf-quantization?

Formato GGUF y cuantificación llama.cpp para una inferencia eficiente de CPU/GPU. Úselo cuando implemente modelos en hardware de consumo, Apple Silicon, o cuando necesite una cuantificación flexible de 2 a 8 bits sin requisitos de GPU. Fuente: orchestra-research/ai-research-skills.

¿Cómo instalo gguf-quantization?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/orchestra-research/ai-research-skills --skill gguf-quantization Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/orchestra-research/ai-research-skills