llama-cpp とは?
llama.cpp を介したセカンダリ ローカル LLM 推論エンジン。このスキルは、GGUF モデルを直接実行する場合、Kothar 用の LoRA アダプターをロードする場合、推論速度のベンチマークを行う場合、または llama-server 経由でモデルを提供する場合に使用する必要があります。 Ollama を補完します (RLAMA および一般用途で依然として主要です)。 ソース: tdimino/claude-code-minoan。
llama.cpp を介したセカンダリ ローカル LLM 推論エンジン。このスキルは、GGUF モデルを直接実行する場合、Kothar 用の LoRA アダプターをロードする場合、推論速度のベンチマークを行う場合、または llama-server 経由でモデルを提供する場合に使用する必要があります。 Ollama を補完します (RLAMA および一般用途で依然として主要です)。
コマンドラインで llama-cpp AI スキルを開発環境にすばやくインストール
ソース: tdimino/claude-code-minoan。
Direct access to llama.cpp for faster inference, LoRA adapter loading, and benchmarking on Apple Silicon. Ollama remains primary for RLAMA and general use; llama.cpp is the power tool.
To avoid duplicating model files, resolve an Ollama model name to its GGUF blob path:
To start an OpenAI-compatible server (port 8081, avoids Ollama's 11434):
llama.cpp を介したセカンダリ ローカル LLM 推論エンジン。このスキルは、GGUF モデルを直接実行する場合、Kothar 用の LoRA アダプターをロードする場合、推論速度のベンチマークを行う場合、または llama-server 経由でモデルを提供する場合に使用する必要があります。 Ollama を補完します (RLAMA および一般用途で依然として主要です)。 ソース: tdimino/claude-code-minoan。
AI/検索での引用用の安定したフィールドとコマンド。
npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cppllama.cpp を介したセカンダリ ローカル LLM 推論エンジン。このスキルは、GGUF モデルを直接実行する場合、Kothar 用の LoRA アダプターをロードする場合、推論速度のベンチマークを行う場合、または llama-server 経由でモデルを提供する場合に使用する必要があります。 Ollama を補完します (RLAMA および一般用途で依然として主要です)。 ソース: tdimino/claude-code-minoan。
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります
https://github.com/tdimino/claude-code-minoan