·llama-cpp

محرك استدلال LLM المحلي الثانوي عبر llama.cpp. يجب استخدام هذه المهارة عند تشغيل نماذج GGUF مباشرة، أو تحميل محولات LoRA لـ Kothar، أو قياس سرعة الاستدلال، أو تقديم النماذج عبر خادم اللاما. يكمل Ollama (الذي يظل أساسيًا لـ RLAMA والاستخدام العام).

24التثبيتات·1الرائج·@tdimino

التثبيت

$npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp

كيفية تثبيت llama-cpp

ثبّت مهارة الذكاء الاصطناعي llama-cpp بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: tdimino/claude-code-minoan.

Direct access to llama.cpp for faster inference, LoRA adapter loading, and benchmarking on Apple Silicon. Ollama remains primary for RLAMA and general use; llama.cpp is the power tool.

To avoid duplicating model files, resolve an Ollama model name to its GGUF blob path:

To start an OpenAI-compatible server (port 8081, avoids Ollama's 11434):

محرك استدلال LLM المحلي الثانوي عبر llama.cpp. يجب استخدام هذه المهارة عند تشغيل نماذج GGUF مباشرة، أو تحميل محولات LoRA لـ Kothar، أو قياس سرعة الاستدلال، أو تقديم النماذج عبر خادم اللاما. يكمل Ollama (الذي يظل أساسيًا لـ RLAMA والاستخدام العام). المصدر: tdimino/claude-code-minoan.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-03-01
آخر تحديث
2026-03-10

Browse more skills from tdimino/claude-code-minoan

إجابات سريعة

ما هي llama-cpp؟

محرك استدلال LLM المحلي الثانوي عبر llama.cpp. يجب استخدام هذه المهارة عند تشغيل نماذج GGUF مباشرة، أو تحميل محولات LoRA لـ Kothar، أو قياس سرعة الاستدلال، أو تقديم النماذج عبر خادم اللاما. يكمل Ollama (الذي يظل أساسيًا لـ RLAMA والاستخدام العام). المصدر: tdimino/claude-code-minoan.

كيف أثبّت llama-cpp؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/tdimino/claude-code-minoan --skill llama-cpp بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/tdimino/claude-code-minoan

التفاصيل

الفئة
</>أدوات التطوير
المصدر
skills.sh
أول ظهور
2026-03-01