·awq-quantization
</>

awq-quantization

تقدير الوزن المدرك للتنشيط لضغط LLM 4 بت مع تسريع 3x والحد الأدنى من فقدان الدقة. يُستخدم عند نشر نماذج كبيرة (7B-70B) على ذاكرة GPU محدودة، عندما تحتاج إلى استدلال أسرع من GPTQ مع الحفاظ على الدقة بشكل أفضل، أو للنماذج المضبوطة للتعليمات والمتعددة الوسائط. الحائز على جائزة MLSys 2024 لأفضل ورقة.

41التثبيتات·2الرائج·@orchestra-research

التثبيت

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill awq-quantization

كيفية تثبيت awq-quantization

ثبّت مهارة الذكاء الاصطناعي awq-quantization بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/orchestra-research/ai-research-skills --skill awq-quantization
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: orchestra-research/ai-research-skills.

4-bit quantization that preserves salient weights based on activation patterns, achieving 3x speedup with minimal accuracy loss.

Timing: 10-15 min for 7B, 1 hour for 70B models.

| Speedup (4-bit) | 2.5-3x | 2x | 1.5x | | Accuracy loss | <5% | 5-10% | 5-15% | | Calibration | Minimal (128-1K tokens) | More extensive | None | | Overfitting risk | Low | Higher | N/A | | Best for | Production inference | GPU inference | Easy integration | | vLLM support | Native | Yes | Limited |

تقدير الوزن المدرك للتنشيط لضغط LLM 4 بت مع تسريع 3x والحد الأدنى من فقدان الدقة. يُستخدم عند نشر نماذج كبيرة (7B-70B) على ذاكرة GPU محدودة، عندما تحتاج إلى استدلال أسرع من GPTQ مع الحفاظ على الدقة بشكل أفضل، أو للنماذج المضبوطة للتعليمات والمتعددة الوسائط. الحائز على جائزة MLSys 2024 لأفضل ورقة. المصدر: orchestra-research/ai-research-skills.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/orchestra-research/ai-research-skills --skill awq-quantization
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-11
آخر تحديث
2026-03-10

Browse more skills from orchestra-research/ai-research-skills

إجابات سريعة

ما هي awq-quantization؟

تقدير الوزن المدرك للتنشيط لضغط LLM 4 بت مع تسريع 3x والحد الأدنى من فقدان الدقة. يُستخدم عند نشر نماذج كبيرة (7B-70B) على ذاكرة GPU محدودة، عندما تحتاج إلى استدلال أسرع من GPTQ مع الحفاظ على الدقة بشكل أفضل، أو للنماذج المضبوطة للتعليمات والمتعددة الوسائط. الحائز على جائزة MLSys 2024 لأفضل ورقة. المصدر: orchestra-research/ai-research-skills.

كيف أثبّت awq-quantization؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/orchestra-research/ai-research-skills --skill awq-quantization بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/orchestra-research/ai-research-skills

التفاصيل

الفئة
</>أدوات التطوير
المصدر
skills.sh
أول ظهور
2026-02-11