·rlama

Lokales RAG-Systemmanagement mit RLAMA. Erstellen Sie semantische Wissensdatenbanken aus lokalen Dokumenten (PDF, MD, Code usw.), fragen Sie sie in natürlicher Sprache ab und verwalten Sie Dokumentlebenszyklen. Diese Fähigkeit sollte beim Aufbau lokaler Wissensdatenbanken, beim Durchsuchen persönlicher Dokumente oder beim Durchführen von Fragen und Antworten zu Dokumenten eingesetzt werden. Läuft zu 100 % lokal mit Ollama – keine Cloud, keine Daten verlassen Ihren Computer.

25Installationen·1Trend·@tdimino

Installation

$npx skills add https://github.com/tdimino/claude-code-minoan --skill rlama

So installieren Sie rlama

Installieren Sie den KI-Skill rlama schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/tdimino/claude-code-minoan --skill rlama
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: tdimino/claude-code-minoan.

RLAMA (Retrieval-Augmented Language Model Adapter) provides fully local, offline RAG for semantic search over your documents.

Query an existing RAG system with a natural language question:

Get raw chunks without local LLM generation. Claude reads the chunks directly and synthesizes a stronger answer than local models can produce.

Lokales RAG-Systemmanagement mit RLAMA. Erstellen Sie semantische Wissensdatenbanken aus lokalen Dokumenten (PDF, MD, Code usw.), fragen Sie sie in natürlicher Sprache ab und verwalten Sie Dokumentlebenszyklen. Diese Fähigkeit sollte beim Aufbau lokaler Wissensdatenbanken, beim Durchsuchen persönlicher Dokumente oder beim Durchführen von Fragen und Antworten zu Dokumenten eingesetzt werden. Läuft zu 100 % lokal mit Ollama – keine Cloud, keine Daten verlassen Ihren Computer. Quelle: tdimino/claude-code-minoan.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/tdimino/claude-code-minoan --skill rlama
Kategorie
#Dokumente
Verifiziert
Erstes Auftreten
2026-03-01
Aktualisiert
2026-03-11

Browse more skills from tdimino/claude-code-minoan

Schnelle Antworten

Was ist rlama?

Lokales RAG-Systemmanagement mit RLAMA. Erstellen Sie semantische Wissensdatenbanken aus lokalen Dokumenten (PDF, MD, Code usw.), fragen Sie sie in natürlicher Sprache ab und verwalten Sie Dokumentlebenszyklen. Diese Fähigkeit sollte beim Aufbau lokaler Wissensdatenbanken, beim Durchsuchen persönlicher Dokumente oder beim Durchführen von Fragen und Antworten zu Dokumenten eingesetzt werden. Läuft zu 100 % lokal mit Ollama – keine Cloud, keine Daten verlassen Ihren Computer. Quelle: tdimino/claude-code-minoan.

Wie installiere ich rlama?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/tdimino/claude-code-minoan --skill rlama Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/tdimino/claude-code-minoan