·llama-cpp

تشغيل استدلال LLM على وحدة المعالجة المركزية (CPU) وApple Silicon ووحدات معالجة الرسومات الاستهلاكية بدون أجهزة NVIDIA. يُستخدم لنشر الحافة، أو أجهزة Mac M1/M2/M3، أو وحدات معالجة الرسومات AMD/Intel، أو عندما لا يكون CUDA متاحًا. يدعم تكميم GGUF (1.5-8 بت) لتقليل الذاكرة وتسريع 4-10× مقابل PyTorch على وحدة المعالجة المركزية.

27التثبيتات·0الرائج·@ovachiever

التثبيت

$npx skills add https://github.com/ovachiever/droid-tings --skill llama-cpp

كيفية تثبيت llama-cpp

ثبّت مهارة الذكاء الاصطناعي llama-cpp بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/ovachiever/droid-tings --skill llama-cpp
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: ovachiever/droid-tings.

Pure C/C++ LLM inference with minimal dependencies, optimized for CPUs and non-NVIDIA hardware.

| Format | Bits | Size (7B) | Speed | Quality | Use Case |

| Q4KM | 4.5 | 4.1 GB | Fast | Good | Recommended default | | Q4KS | 4.3 | 3.9 GB | Faster | Lower | Speed critical | | Q5KM | 5.5 | 4.8 GB | Medium | Better | Quality critical | | Q6K | 6.5 | 5.5 GB | Slower | Best | Maximum quality | | Q80 | 8.0 | 7.0 GB | Slow | Excellent | Minimal degradation | | Q2K | 2.5 | 2.7 GB | Fastest | Poor | Testing only |

تشغيل استدلال LLM على وحدة المعالجة المركزية (CPU) وApple Silicon ووحدات معالجة الرسومات الاستهلاكية بدون أجهزة NVIDIA. يُستخدم لنشر الحافة، أو أجهزة Mac M1/M2/M3، أو وحدات معالجة الرسومات AMD/Intel، أو عندما لا يكون CUDA متاحًا. يدعم تكميم GGUF (1.5-8 بت) لتقليل الذاكرة وتسريع 4-10× مقابل PyTorch على وحدة المعالجة المركزية. المصدر: ovachiever/droid-tings.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/ovachiever/droid-tings --skill llama-cpp
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-01
آخر تحديث
2026-03-10

Browse more skills from ovachiever/droid-tings

إجابات سريعة

ما هي llama-cpp؟

تشغيل استدلال LLM على وحدة المعالجة المركزية (CPU) وApple Silicon ووحدات معالجة الرسومات الاستهلاكية بدون أجهزة NVIDIA. يُستخدم لنشر الحافة، أو أجهزة Mac M1/M2/M3، أو وحدات معالجة الرسومات AMD/Intel، أو عندما لا يكون CUDA متاحًا. يدعم تكميم GGUF (1.5-8 بت) لتقليل الذاكرة وتسريع 4-10× مقابل PyTorch على وحدة المعالجة المركزية. المصدر: ovachiever/droid-tings.

كيف أثبّت llama-cpp؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/ovachiever/droid-tings --skill llama-cpp بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/ovachiever/droid-tings