·llama-cpp
</>

llama-cpp

ovachiever/droid-tings

NVIDIA ハードウェアを使用せずに、CPU、Apple Silicon、コンシューマ GPU で LLM 推論を実行します。エッジ展開、M1/M2/M3 Mac、AMD/Intel GPU、または CUDA が利用できない場合に使用します。 GGUF 量子化 (1.5 ~ 8 ビット) をサポートし、メモリを削減し、CPU 上の PyTorch と比較して 4 ~ 10 倍の速度向上を実現します。

21インストール·0トレンド·@ovachiever

インストール

$npx skills add https://github.com/ovachiever/droid-tings --skill llama-cpp

SKILL.md

Pure C/C++ LLM inference with minimal dependencies, optimized for CPUs and non-NVIDIA hardware.

| Format | Bits | Size (7B) | Speed | Quality | Use Case |

| Q4KM | 4.5 | 4.1 GB | Fast | Good | Recommended default | | Q4KS | 4.3 | 3.9 GB | Faster | Lower | Speed critical | | Q5KM | 5.5 | 4.8 GB | Medium | Better | Quality critical | | Q6K | 6.5 | 5.5 GB | Slower | Best | Maximum quality | | Q80 | 8.0 | 7.0 GB | Slow | Excellent | Minimal degradation | | Q2K | 2.5 | 2.7 GB | Fastest | Poor | Testing only |

NVIDIA ハードウェアを使用せずに、CPU、Apple Silicon、コンシューマ GPU で LLM 推論を実行します。エッジ展開、M1/M2/M3 Mac、AMD/Intel GPU、または CUDA が利用できない場合に使用します。 GGUF 量子化 (1.5 ~ 8 ビット) をサポートし、メモリを削減し、CPU 上の PyTorch と比較して 4 ~ 10 倍の速度向上を実現します。 ソース: ovachiever/droid-tings。

原文を見る

引用可能な情報

AI/検索での引用用の安定したフィールドとコマンド。

インストールコマンド
npx skills add https://github.com/ovachiever/droid-tings --skill llama-cpp
カテゴリ
</>開発ツール
認証済み
初回登録
2026-02-01
更新日
2026-02-18

クイックアンサー

llama-cpp とは?

NVIDIA ハードウェアを使用せずに、CPU、Apple Silicon、コンシューマ GPU で LLM 推論を実行します。エッジ展開、M1/M2/M3 Mac、AMD/Intel GPU、または CUDA が利用できない場合に使用します。 GGUF 量子化 (1.5 ~ 8 ビット) をサポートし、メモリを削減し、CPU 上の PyTorch と比較して 4 ~ 10 倍の速度向上を実現します。 ソース: ovachiever/droid-tings。

llama-cpp のインストール方法は?

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/ovachiever/droid-tings --skill llama-cpp インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります

ソースリポジトリはどこですか?

https://github.com/ovachiever/droid-tings