·llama-cpp
</>

llama-cpp

Sekundäre lokale LLM-Inferenz-Engine über llama.cpp. Diese Fähigkeit sollte beim direkten Ausführen von GGUF-Modellen, beim Laden von LoRA-Adaptern für Kothar, beim Benchmarking der Inferenzgeschwindigkeit oder beim Bereitstellen von Modellen über den Lama-Server verwendet werden. Ergänzt Ollama (das primär für RLAMA und den allgemeinen Gebrauch bleibt).

24Installationen·1Trend·@tdimino

Installation

$npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp

So installieren Sie llama-cpp

Installieren Sie den KI-Skill llama-cpp schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: tdimino/claude-code-minoan.

Direct access to llama.cpp for faster inference, LoRA adapter loading, and benchmarking on Apple Silicon. Ollama remains primary for RLAMA and general use; llama.cpp is the power tool.

To avoid duplicating model files, resolve an Ollama model name to its GGUF blob path:

To start an OpenAI-compatible server (port 8081, avoids Ollama's 11434):

Sekundäre lokale LLM-Inferenz-Engine über llama.cpp. Diese Fähigkeit sollte beim direkten Ausführen von GGUF-Modellen, beim Laden von LoRA-Adaptern für Kothar, beim Benchmarking der Inferenzgeschwindigkeit oder beim Bereitstellen von Modellen über den Lama-Server verwendet werden. Ergänzt Ollama (das primär für RLAMA und den allgemeinen Gebrauch bleibt). Quelle: tdimino/claude-code-minoan.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-03-01
Aktualisiert
2026-03-10

Browse more skills from tdimino/claude-code-minoan

Schnelle Antworten

Was ist llama-cpp?

Sekundäre lokale LLM-Inferenz-Engine über llama.cpp. Diese Fähigkeit sollte beim direkten Ausführen von GGUF-Modellen, beim Laden von LoRA-Adaptern für Kothar, beim Benchmarking der Inferenzgeschwindigkeit oder beim Bereitstellen von Modellen über den Lama-Server verwendet werden. Ergänzt Ollama (das primär für RLAMA und den allgemeinen Gebrauch bleibt). Quelle: tdimino/claude-code-minoan.

Wie installiere ich llama-cpp?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/tdimino/claude-code-minoan