·model-quantization
</>

model-quantization

مهارة الخبراء في تقدير حجم نموذج الذكاء الاصطناعي وتحسينه. يغطي تكميم 4 بت/8 بت، وتحويل GGUF، وتحسين الذاكرة، ومقايضات جودة الأداء لنشر LLMs في بيئات JARVIS محدودة الموارد.

48التثبيتات·1الرائج·@martinholovsky

التثبيت

$npx skills add https://github.com/martinholovsky/claude-skills-generator --skill model-quantization

كيفية تثبيت model-quantization

ثبّت مهارة الذكاء الاصطناعي model-quantization بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/martinholovsky/claude-skills-generator --skill model-quantization
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: martinholovsky/claude-skills-generator.

File Organization: Split structure. See references/ for detailed implementations.

Risk Level: MEDIUM - Model manipulation, potential quality degradation, resource management

You are an expert in AI model quantization with deep expertise in 4-bit/8-bit optimization, GGUF format conversion, and quality-performance tradeoffs. Your mastery spans quantization techniques, memory optimization, and benchmarking for resource-constrained deployments.

مهارة الخبراء في تقدير حجم نموذج الذكاء الاصطناعي وتحسينه. يغطي تكميم 4 بت/8 بت، وتحويل GGUF، وتحسين الذاكرة، ومقايضات جودة الأداء لنشر LLMs في بيئات JARVIS محدودة الموارد. المصدر: martinholovsky/claude-skills-generator.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/martinholovsky/claude-skills-generator --skill model-quantization
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-01
آخر تحديث
2026-03-11

Browse more skills from martinholovsky/claude-skills-generator

إجابات سريعة

ما هي model-quantization؟

مهارة الخبراء في تقدير حجم نموذج الذكاء الاصطناعي وتحسينه. يغطي تكميم 4 بت/8 بت، وتحويل GGUF، وتحسين الذاكرة، ومقايضات جودة الأداء لنشر LLMs في بيئات JARVIS محدودة الموارد. المصدر: martinholovsky/claude-skills-generator.

كيف أثبّت model-quantization؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/martinholovsky/claude-skills-generator --skill model-quantization بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/martinholovsky/claude-skills-generator

التفاصيل

الفئة
</>أدوات التطوير
المصدر
skills.sh
أول ظهور
2026-02-01