ما هي ollama-local؟
الاستدلال المحلي LLM مع أولاما. يُستخدم عند إعداد نماذج محلية للتطوير أو خطوط أنابيب CI أو خفض التكلفة. يغطي اختيار النموذج، وتكامل LangChain، وضبط الأداء. المصدر: yonatangross/skillforge-claude-plugin.
الاستدلال المحلي LLM مع أولاما. يُستخدم عند إعداد نماذج محلية للتطوير أو خطوط أنابيب CI أو خفض التكلفة. يغطي اختيار النموذج، وتكامل LangChain، وضبط الأداء.
ثبّت مهارة الذكاء الاصطناعي ollama-local بسرعة في بيئة التطوير لديك عبر سطر الأوامر
المصدر: yonatangross/skillforge-claude-plugin.
Run LLMs locally for cost savings, privacy, and offline development.
| Reasoning | deepseek-r1:70b | 42GB | GPT-4 level | | Coding | qwen2.5-coder:32b | 35GB | 73.7% Aider benchmark | | Embeddings | nomic-embed-text | 0.5GB | 768 dims, fast | | General | llama3.2:70b | 40GB | Good all-around |
| Cloud APIs | $675/month | 200-500ms | | Ollama Local | $50 (electricity) | 50-200ms | | Savings | 93% | 2-3x faster |
الاستدلال المحلي LLM مع أولاما. يُستخدم عند إعداد نماذج محلية للتطوير أو خطوط أنابيب CI أو خفض التكلفة. يغطي اختيار النموذج، وتكامل LangChain، وضبط الأداء. المصدر: yonatangross/skillforge-claude-plugin.
حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.
npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill ollama-localBrowse more skills from yonatangross/skillforge-claude-plugin
الاستدلال المحلي LLM مع أولاما. يُستخدم عند إعداد نماذج محلية للتطوير أو خطوط أنابيب CI أو خفض التكلفة. يغطي اختيار النموذج، وتكامل LangChain، وضبط الأداء. المصدر: yonatangross/skillforge-claude-plugin.
افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill ollama-local بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw
https://github.com/yonatangross/skillforge-claude-plugin