·llama-cpp
</>

llama-cpp

Moteur d'inférence LLM local secondaire via llama.cpp. Cette compétence doit être utilisée lors de l'exécution directe de modèles GGUF, du chargement d'adaptateurs LoRA pour Kothar, de l'analyse comparative de la vitesse d'inférence ou de la diffusion de modèles via un serveur Llama. Complète Ollama (qui reste primaire pour le RLAMA et l'usage général).

24Installations·1Tendance·@tdimino

Installation

$npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp

Comment installer llama-cpp

Installez rapidement le skill IA llama-cpp dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : tdimino/claude-code-minoan.

Direct access to llama.cpp for faster inference, LoRA adapter loading, and benchmarking on Apple Silicon. Ollama remains primary for RLAMA and general use; llama.cpp is the power tool.

To avoid duplicating model files, resolve an Ollama model name to its GGUF blob path:

To start an OpenAI-compatible server (port 8081, avoids Ollama's 11434):

Moteur d'inférence LLM local secondaire via llama.cpp. Cette compétence doit être utilisée lors de l'exécution directe de modèles GGUF, du chargement d'adaptateurs LoRA pour Kothar, de l'analyse comparative de la vitesse d'inférence ou de la diffusion de modèles via un serveur Llama. Complète Ollama (qui reste primaire pour le RLAMA et l'usage général). Source : tdimino/claude-code-minoan.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp
Catégorie
</>Développement
Vérifié
Première apparition
2026-03-01
Mis à jour
2026-03-11

Browse more skills from tdimino/claude-code-minoan

Réponses rapides

Qu'est-ce que llama-cpp ?

Moteur d'inférence LLM local secondaire via llama.cpp. Cette compétence doit être utilisée lors de l'exécution directe de modèles GGUF, du chargement d'adaptateurs LoRA pour Kothar, de l'analyse comparative de la vitesse d'inférence ou de la diffusion de modèles via un serveur Llama. Complète Ollama (qui reste primaire pour le RLAMA et l'usage général). Source : tdimino/claude-code-minoan.

Comment installer llama-cpp ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/tdimino/claude-code-minoan