ollama-local
✓Lokale LLM-Inferenz mit Ollama. Verwendung beim Einrichten lokaler Modelle für Entwicklung, CI-Pipelines oder Kostenreduzierung. Behandelt Modellauswahl, LangChain-Integration und Leistungsoptimierung.
Installation
SKILL.md
Run LLMs locally for cost savings, privacy, and offline development.
| Reasoning | deepseek-r1:70b | 42GB | GPT-4 level | | Coding | qwen2.5-coder:32b | 35GB | 73.7% Aider benchmark | | Embeddings | nomic-embed-text | 0.5GB | 768 dims, fast | | General | llama3.2:70b | 40GB | Good all-around |
| Cloud APIs | $675/month | 200-500ms | | Ollama Local | $50 (electricity) | 50-200ms | | Savings | 93% | 2-3x faster |
Lokale LLM-Inferenz mit Ollama. Verwendung beim Einrichten lokaler Modelle für Entwicklung, CI-Pipelines oder Kostenreduzierung. Behandelt Modellauswahl, LangChain-Integration und Leistungsoptimierung. Quelle: yonatangross/skillforge-claude-plugin.
Fakten (zitierbereit)
Stabile Felder und Befehle für KI/Such-Zitate.
- Installationsbefehl
npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill ollama-local- Kategorie
- </>Entwicklung
- Verifiziert
- ✓
- Erstes Auftreten
- 2026-02-01
- Aktualisiert
- 2026-02-18
Schnelle Antworten
Was ist ollama-local?
Lokale LLM-Inferenz mit Ollama. Verwendung beim Einrichten lokaler Modelle für Entwicklung, CI-Pipelines oder Kostenreduzierung. Behandelt Modellauswahl, LangChain-Integration und Leistungsoptimierung. Quelle: yonatangross/skillforge-claude-plugin.
Wie installiere ich ollama-local?
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill ollama-local Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Wo ist das Quell-Repository?
https://github.com/yonatangross/skillforge-claude-plugin
Details
- Kategorie
- </>Entwicklung
- Quelle
- skills.sh
- Erstes Auftreten
- 2026-02-01