·ollama
</>

ollama

balloob/llm-skills

Verwenden Sie dies, wenn der Benutzer eine Verbindung zu Ollama herstellen oder Ollama in irgendeiner Form in seinem Projekt nutzen möchte. Leiten Sie Benutzer bei der Integration von Ollama in ihre Projekte für lokale KI-Inferenz an. Behandelt Installation, Verbindungseinrichtung, Modellverwaltung und API-Nutzung für Python und Node.js. Hilft bei der Textgenerierung, Chat-Schnittstellen, Einbettungen, Streaming-Antworten und der Erstellung KI-gestützter Anwendungen mithilfe lokaler LLMs.

6Installationen·0Trend·@balloob

Installation

$npx skills add https://github.com/balloob/llm-skills --skill ollama

SKILL.md

This skill helps users integrate Ollama into their projects for running large language models locally. The skill guides users through setup, connection validation, model management, and API integration for both Python and Node.js applications. Ollama provides a simple API for running models like Llama, Mistral, Gemma, and others locally without cloud dependencies.

IMPORTANT: Always ask users for their Ollama URL. Do not assume it's running locally.

If the user says they're running Ollama locally or doesn't know the URL, suggest trying http://localhost:11434.

Verwenden Sie dies, wenn der Benutzer eine Verbindung zu Ollama herstellen oder Ollama in irgendeiner Form in seinem Projekt nutzen möchte. Leiten Sie Benutzer bei der Integration von Ollama in ihre Projekte für lokale KI-Inferenz an. Behandelt Installation, Verbindungseinrichtung, Modellverwaltung und API-Nutzung für Python und Node.js. Hilft bei der Textgenerierung, Chat-Schnittstellen, Einbettungen, Streaming-Antworten und der Erstellung KI-gestützter Anwendungen mithilfe lokaler LLMs. Quelle: balloob/llm-skills.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/balloob/llm-skills --skill ollama
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-01
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist ollama?

Verwenden Sie dies, wenn der Benutzer eine Verbindung zu Ollama herstellen oder Ollama in irgendeiner Form in seinem Projekt nutzen möchte. Leiten Sie Benutzer bei der Integration von Ollama in ihre Projekte für lokale KI-Inferenz an. Behandelt Installation, Verbindungseinrichtung, Modellverwaltung und API-Nutzung für Python und Node.js. Hilft bei der Textgenerierung, Chat-Schnittstellen, Einbettungen, Streaming-Antworten und der Erstellung KI-gestützter Anwendungen mithilfe lokaler LLMs. Quelle: balloob/llm-skills.

Wie installiere ich ollama?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/balloob/llm-skills --skill ollama Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/balloob/llm-skills

Details

Kategorie
</>Entwicklung
Quelle
skills.sh
Erstes Auftreten
2026-02-01