·gguf-quantization
</>

gguf-quantization

orchestra-research/ai-research-skills

GGUF 形式と llama.cpp 量子化による効率的な CPU/GPU 推論。消費者向けハードウェアや Apple Silicon にモデルをデプロイする場合、または GPU を必要とせずに 2 ~ 8 ビットの柔軟な量子化が必要な場合に使用します。

15インストール·0トレンド·@orchestra-research

インストール

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill gguf-quantization

SKILL.md

The GGUF (GPT-Generated Unified Format) is the standard file format for llama.cpp, enabling efficient inference on CPUs, Apple Silicon, and GPUs with flexible quantization options.

| Type | Bits | Size (7B) | Quality | Use Case |

| Q2K | 2.5 | 2.8 GB | Low | Extreme compression | | Q3KS | 3.0 | 3.0 GB | Low-Med | Memory constrained | | Q3KM | 3.3 | 3.3 GB | Medium | Balance | | Q4KS | 4.0 | 3.8 GB | Med-High | Good balance | | Q4KM | 4.5 | 4.1 GB | High | Recommended default | | Q5KS | 5.0 | 4.6 GB | High | Quality focused | | Q5KM | 5.5 | 4.8 GB | Very High | High quality |

原文を見る

引用可能な情報

AI/検索での引用用の安定したフィールドとコマンド。

インストールコマンド
npx skills add https://github.com/orchestra-research/ai-research-skills --skill gguf-quantization
カテゴリ
</>開発ツール
認証済み
初回登録
2026-02-11
更新日
2026-02-18

クイックアンサー

gguf-quantization とは?

GGUF 形式と llama.cpp 量子化による効率的な CPU/GPU 推論。消費者向けハードウェアや Apple Silicon にモデルをデプロイする場合、または GPU を必要とせずに 2 ~ 8 ビットの柔軟な量子化が必要な場合に使用します。 ソース: orchestra-research/ai-research-skills。

gguf-quantization のインストール方法は?

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/orchestra-research/ai-research-skills --skill gguf-quantization インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります

ソースリポジトリはどこですか?

https://github.com/orchestra-research/ai-research-skills