·llama-cpp
</>

llama-cpp

Motore di inferenza LLM locale secondario tramite llama.cpp. Questa abilità dovrebbe essere utilizzata quando si eseguono direttamente modelli GGUF, si caricano adattatori LoRA per Kothar, si esegue il benchmarking della velocità di inferenza o si servono modelli tramite llama-server. Complementa Ollama (che rimane primario per RLAMA e per uso generale).

24Installazioni·1Tendenza·@tdimino

Installazione

$npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp

Come installare llama-cpp

Installa rapidamente la skill AI llama-cpp nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: tdimino/claude-code-minoan.

Direct access to llama.cpp for faster inference, LoRA adapter loading, and benchmarking on Apple Silicon. Ollama remains primary for RLAMA and general use; llama.cpp is the power tool.

To avoid duplicating model files, resolve an Ollama model name to its GGUF blob path:

To start an OpenAI-compatible server (port 8081, avoids Ollama's 11434):

Motore di inferenza LLM locale secondario tramite llama.cpp. Questa abilità dovrebbe essere utilizzata quando si eseguono direttamente modelli GGUF, si caricano adattatori LoRA per Kothar, si esegue il benchmarking della velocità di inferenza o si servono modelli tramite llama-server. Complementa Ollama (che rimane primario per RLAMA e per uso generale). Fonte: tdimino/claude-code-minoan.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-03-01
Aggiornato
2026-03-10

Browse more skills from tdimino/claude-code-minoan

Risposte rapide

Che cos'è llama-cpp?

Motore di inferenza LLM locale secondario tramite llama.cpp. Questa abilità dovrebbe essere utilizzata quando si eseguono direttamente modelli GGUF, si caricano adattatori LoRA per Kothar, si esegue il benchmarking della velocità di inferenza o si servono modelli tramite llama-server. Complementa Ollama (che rimane primario per RLAMA e per uso generale). Fonte: tdimino/claude-code-minoan.

Come installo llama-cpp?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/tdimino/claude-code-minoan