·gguf-quantization
</>

gguf-quantization

تنسيق GGUF وتكميم llama.cpp لاستدلال وحدة المعالجة المركزية/وحدة معالجة الرسومات بكفاءة. يُستخدم عند نشر النماذج على الأجهزة الاستهلاكية، أو Apple Silicon، أو عند الحاجة إلى تكميم مرن من 2 إلى 8 بت دون متطلبات وحدة معالجة الرسومات.

40التثبيتات·2الرائج·@orchestra-research

التثبيت

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill gguf-quantization

كيفية تثبيت gguf-quantization

ثبّت مهارة الذكاء الاصطناعي gguf-quantization بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/orchestra-research/ai-research-skills --skill gguf-quantization
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: orchestra-research/ai-research-skills.

The GGUF (GPT-Generated Unified Format) is the standard file format for llama.cpp, enabling efficient inference on CPUs, Apple Silicon, and GPUs with flexible quantization options.

| Type | Bits | Size (7B) | Quality | Use Case |

| Q2K | 2.5 | 2.8 GB | Low | Extreme compression | | Q3KS | 3.0 | 3.0 GB | Low-Med | Memory constrained | | Q3KM | 3.3 | 3.3 GB | Medium | Balance | | Q4KS | 4.0 | 3.8 GB | Med-High | Good balance | | Q4KM | 4.5 | 4.1 GB | High | Recommended default | | Q5KS | 5.0 | 4.6 GB | High | Quality focused | | Q5KM | 5.5 | 4.8 GB | Very High | High quality |

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/orchestra-research/ai-research-skills --skill gguf-quantization
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-11
آخر تحديث
2026-03-10

Browse more skills from orchestra-research/ai-research-skills

إجابات سريعة

ما هي gguf-quantization؟

تنسيق GGUF وتكميم llama.cpp لاستدلال وحدة المعالجة المركزية/وحدة معالجة الرسومات بكفاءة. يُستخدم عند نشر النماذج على الأجهزة الاستهلاكية، أو Apple Silicon، أو عند الحاجة إلى تكميم مرن من 2 إلى 8 بت دون متطلبات وحدة معالجة الرسومات. المصدر: orchestra-research/ai-research-skills.

كيف أثبّت gguf-quantization؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/orchestra-research/ai-research-skills --skill gguf-quantization بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/orchestra-research/ai-research-skills

التفاصيل

الفئة
</>أدوات التطوير
المصدر
skills.sh
أول ظهور
2026-02-11