·ollama-local

الاستدلال المحلي LLM مع أولاما. يُستخدم عند إعداد نماذج محلية للتطوير أو خطوط أنابيب CI أو خفض التكلفة. يغطي اختيار النموذج، وتكامل LangChain، وضبط الأداء.

4التثبيتات·0الرائج·@yonatangross

التثبيت

$npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill ollama-local

كيفية تثبيت ollama-local

ثبّت مهارة الذكاء الاصطناعي ollama-local بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill ollama-local
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: yonatangross/skillforge-claude-plugin.

Run LLMs locally for cost savings, privacy, and offline development.

| Reasoning | deepseek-r1:70b | 42GB | GPT-4 level | | Coding | qwen2.5-coder:32b | 35GB | 73.7% Aider benchmark | | Embeddings | nomic-embed-text | 0.5GB | 768 dims, fast | | General | llama3.2:70b | 40GB | Good all-around |

| Cloud APIs | $675/month | 200-500ms | | Ollama Local | $50 (electricity) | 50-200ms | | Savings | 93% | 2-3x faster |

الاستدلال المحلي LLM مع أولاما. يُستخدم عند إعداد نماذج محلية للتطوير أو خطوط أنابيب CI أو خفض التكلفة. يغطي اختيار النموذج، وتكامل LangChain، وضبط الأداء. المصدر: yonatangross/skillforge-claude-plugin.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill ollama-local
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-01
آخر تحديث
2026-03-11

Browse more skills from yonatangross/skillforge-claude-plugin

إجابات سريعة

ما هي ollama-local؟

الاستدلال المحلي LLM مع أولاما. يُستخدم عند إعداد نماذج محلية للتطوير أو خطوط أنابيب CI أو خفض التكلفة. يغطي اختيار النموذج، وتكامل LangChain، وضبط الأداء. المصدر: yonatangross/skillforge-claude-plugin.

كيف أثبّت ollama-local؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill ollama-local بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/yonatangross/skillforge-claude-plugin