ollama
✓Verwenden Sie dies, wenn der Benutzer eine Verbindung zu Ollama herstellen oder Ollama in irgendeiner Form in seinem Projekt nutzen möchte. Leiten Sie Benutzer bei der Integration von Ollama in ihre Projekte für lokale KI-Inferenz an. Behandelt Installation, Verbindungseinrichtung, Modellverwaltung und API-Nutzung für Python und Node.js. Hilft bei der Textgenerierung, Chat-Schnittstellen, Einbettungen, Streaming-Antworten und der Erstellung KI-gestützter Anwendungen mithilfe lokaler LLMs.
Installation
SKILL.md
This skill helps users integrate Ollama into their projects for running large language models locally. The skill guides users through setup, connection validation, model management, and API integration for both Python and Node.js applications. Ollama provides a simple API for running models like Llama, Mistral, Gemma, and others locally without cloud dependencies.
IMPORTANT: Always ask users for their Ollama URL. Do not assume it's running locally.
If the user says they're running Ollama locally or doesn't know the URL, suggest trying http://localhost:11434.
Verwenden Sie dies, wenn der Benutzer eine Verbindung zu Ollama herstellen oder Ollama in irgendeiner Form in seinem Projekt nutzen möchte. Leiten Sie Benutzer bei der Integration von Ollama in ihre Projekte für lokale KI-Inferenz an. Behandelt Installation, Verbindungseinrichtung, Modellverwaltung und API-Nutzung für Python und Node.js. Hilft bei der Textgenerierung, Chat-Schnittstellen, Einbettungen, Streaming-Antworten und der Erstellung KI-gestützter Anwendungen mithilfe lokaler LLMs. Quelle: balloob/llm-skills.
Fakten (zitierbereit)
Stabile Felder und Befehle für KI/Such-Zitate.
- Installationsbefehl
npx skills add https://github.com/balloob/llm-skills --skill ollama- Quelle
- balloob/llm-skills
- Kategorie
- </>Entwicklung
- Verifiziert
- ✓
- Erstes Auftreten
- 2026-02-01
- Aktualisiert
- 2026-02-18
Schnelle Antworten
Was ist ollama?
Verwenden Sie dies, wenn der Benutzer eine Verbindung zu Ollama herstellen oder Ollama in irgendeiner Form in seinem Projekt nutzen möchte. Leiten Sie Benutzer bei der Integration von Ollama in ihre Projekte für lokale KI-Inferenz an. Behandelt Installation, Verbindungseinrichtung, Modellverwaltung und API-Nutzung für Python und Node.js. Hilft bei der Textgenerierung, Chat-Schnittstellen, Einbettungen, Streaming-Antworten und der Erstellung KI-gestützter Anwendungen mithilfe lokaler LLMs. Quelle: balloob/llm-skills.
Wie installiere ich ollama?
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/balloob/llm-skills --skill ollama Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Wo ist das Quell-Repository?
https://github.com/balloob/llm-skills
Details
- Kategorie
- </>Entwicklung
- Quelle
- skills.sh
- Erstes Auftreten
- 2026-02-01