·ollama-rag
</>

ollama-rag

Erstellen Sie RAG-Systeme mit lokalen und Cloud-Modellen von Ollama. Zu den neuesten Cloud-Modellen gehören DeepSeek-V3.2 (GPT-5-Ebene), Qwen3-Coder-480B (1M-Kontext) und MiniMax-M2. Verwendung für Fragen und Antworten zu Dokumenten, Wissensdatenbanken und Agenten-RAG. Deckt LangChain, LlamaIndex, ChromaDB und Einbettungsmodelle ab.

6Installationen·0Trend·@cuba6112

Installation

$npx skills add https://github.com/cuba6112/skillfactory --skill ollama-rag

So installieren Sie ollama-rag

Installieren Sie den KI-Skill ollama-rag schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/cuba6112/skillfactory --skill ollama-rag
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: cuba6112/skillfactory.

Build RAG systems with Ollama - run locally or use cloud for massive models.

Access via ollama signin (v0.12+). No local storage needed, privacy preserved.

| Model | Params | Context | Best For |

Erstellen Sie RAG-Systeme mit lokalen und Cloud-Modellen von Ollama. Zu den neuesten Cloud-Modellen gehören DeepSeek-V3.2 (GPT-5-Ebene), Qwen3-Coder-480B (1M-Kontext) und MiniMax-M2. Verwendung für Fragen und Antworten zu Dokumenten, Wissensdatenbanken und Agenten-RAG. Deckt LangChain, LlamaIndex, ChromaDB und Einbettungsmodelle ab. Quelle: cuba6112/skillfactory.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/cuba6112/skillfactory --skill ollama-rag
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-22
Aktualisiert
2026-03-10

Browse more skills from cuba6112/skillfactory

Schnelle Antworten

Was ist ollama-rag?

Erstellen Sie RAG-Systeme mit lokalen und Cloud-Modellen von Ollama. Zu den neuesten Cloud-Modellen gehören DeepSeek-V3.2 (GPT-5-Ebene), Qwen3-Coder-480B (1M-Kontext) und MiniMax-M2. Verwendung für Fragen und Antworten zu Dokumenten, Wissensdatenbanken und Agenten-RAG. Deckt LangChain, LlamaIndex, ChromaDB und Einbettungsmodelle ab. Quelle: cuba6112/skillfactory.

Wie installiere ich ollama-rag?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/cuba6112/skillfactory --skill ollama-rag Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/cuba6112/skillfactory

Details

Kategorie
</>Entwicklung
Quelle
skills.sh
Erstes Auftreten
2026-02-22