·peft-fine-tuning
</>

peft-fine-tuning

ضبط دقيق لكفاءة المعلمات لمدارس LLM باستخدام LoRA وQLoRA وأكثر من 25 طريقة. يُستخدم عند الضبط الدقيق للنماذج الكبيرة (7B-70B) ذات ذاكرة وحدة معالجة الرسومات المحدودة، أو عندما تحتاج إلى تدريب أقل من 1% من المعلمات مع الحد الأدنى من فقدان الدقة، أو لخدمة محولات متعددة. مكتبة HuggingFace الرسمية متكاملة مع النظام البيئي للمحولات.

39التثبيتات·2الرائج·@orchestra-research

التثبيت

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill peft-fine-tuning

كيفية تثبيت peft-fine-tuning

ثبّت مهارة الذكاء الاصطناعي peft-fine-tuning بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/orchestra-research/ai-research-skills --skill peft-fine-tuning
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: orchestra-research/ai-research-skills.

Fine-tune LLMs by training <1% of parameters using LoRA, QLoRA, and 25+ adapter methods.

| Rank | Trainable Params | Memory | Quality | Use Case |

| 4 | 3M | Minimal | Lower | Simple tasks, prototyping | | 8 | 7M | Low | Good | Recommended starting point | | 16 | 14M | Medium | Better | General fine-tuning | | 32 | 27M | Higher | High | Complex tasks | | 64 | 54M | High | Highest | Domain adaptation, 70B models |

ضبط دقيق لكفاءة المعلمات لمدارس LLM باستخدام LoRA وQLoRA وأكثر من 25 طريقة. يُستخدم عند الضبط الدقيق للنماذج الكبيرة (7B-70B) ذات ذاكرة وحدة معالجة الرسومات المحدودة، أو عندما تحتاج إلى تدريب أقل من 1% من المعلمات مع الحد الأدنى من فقدان الدقة، أو لخدمة محولات متعددة. مكتبة HuggingFace الرسمية متكاملة مع النظام البيئي للمحولات. المصدر: orchestra-research/ai-research-skills.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/orchestra-research/ai-research-skills --skill peft-fine-tuning
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-11
آخر تحديث
2026-03-10

Browse more skills from orchestra-research/ai-research-skills

إجابات سريعة

ما هي peft-fine-tuning؟

ضبط دقيق لكفاءة المعلمات لمدارس LLM باستخدام LoRA وQLoRA وأكثر من 25 طريقة. يُستخدم عند الضبط الدقيق للنماذج الكبيرة (7B-70B) ذات ذاكرة وحدة معالجة الرسومات المحدودة، أو عندما تحتاج إلى تدريب أقل من 1% من المعلمات مع الحد الأدنى من فقدان الدقة، أو لخدمة محولات متعددة. مكتبة HuggingFace الرسمية متكاملة مع النظام البيئي للمحولات. المصدر: orchestra-research/ai-research-skills.

كيف أثبّت peft-fine-tuning؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/orchestra-research/ai-research-skills --skill peft-fine-tuning بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/orchestra-research/ai-research-skills

التفاصيل

الفئة
</>أدوات التطوير
المصدر
skills.sh
أول ظهور
2026-02-11