·llama-cpp
</>

llama-cpp

Motor de inferencia LLM local secundario a través de llama.cpp. Esta habilidad debe usarse al ejecutar modelos GGUF directamente, cargar adaptadores LoRA para Kothar, comparar la velocidad de inferencia o servir modelos a través del servidor llama. Complementa a Ollama (que sigue siendo primario para RLAMA y uso general).

24Instalaciones·1Tendencia·@tdimino

Instalación

$npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp

Cómo instalar llama-cpp

Instala rápidamente el skill de IA llama-cpp en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: tdimino/claude-code-minoan.

SKILL.md

Ver original

Direct access to llama.cpp for faster inference, LoRA adapter loading, and benchmarking on Apple Silicon. Ollama remains primary for RLAMA and general use; llama.cpp is the power tool.

To avoid duplicating model files, resolve an Ollama model name to its GGUF blob path:

To start an OpenAI-compatible server (port 8081, avoids Ollama's 11434):

Motor de inferencia LLM local secundario a través de llama.cpp. Esta habilidad debe usarse al ejecutar modelos GGUF directamente, cargar adaptadores LoRA para Kothar, comparar la velocidad de inferencia o servir modelos a través del servidor llama. Complementa a Ollama (que sigue siendo primario para RLAMA y uso general). Fuente: tdimino/claude-code-minoan.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-03-01
Actualizado
2026-03-11

Browse more skills from tdimino/claude-code-minoan

Respuestas rápidas

¿Qué es llama-cpp?

Motor de inferencia LLM local secundario a través de llama.cpp. Esta habilidad debe usarse al ejecutar modelos GGUF directamente, cargar adaptadores LoRA para Kothar, comparar la velocidad de inferencia o servir modelos a través del servidor llama. Complementa a Ollama (que sigue siendo primario para RLAMA y uso general). Fuente: tdimino/claude-code-minoan.

¿Cómo instalo llama-cpp?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/tdimino/claude-code-minoan