·rlama

Gestion du système RAG local avec RLAMA. Créez des bases de connaissances sémantiques à partir de documents locaux (PDF, MD, code, etc.), interrogez-les en langage naturel et gérez les cycles de vie des documents. Cette compétence doit être utilisée lors de la création de bases de connaissances locales, de la recherche de documents personnels ou de la réalisation de questions et réponses sur des documents. Fonctionne 100 % localement avec Ollama - pas de cloud, aucune donnée ne quitte votre machine.

25Installations·1Tendance·@tdimino

Installation

$npx skills add https://github.com/tdimino/claude-code-minoan --skill rlama

Comment installer rlama

Installez rapidement le skill IA rlama dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/tdimino/claude-code-minoan --skill rlama
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : tdimino/claude-code-minoan.

RLAMA (Retrieval-Augmented Language Model Adapter) provides fully local, offline RAG for semantic search over your documents.

Query an existing RAG system with a natural language question:

Get raw chunks without local LLM generation. Claude reads the chunks directly and synthesizes a stronger answer than local models can produce.

Gestion du système RAG local avec RLAMA. Créez des bases de connaissances sémantiques à partir de documents locaux (PDF, MD, code, etc.), interrogez-les en langage naturel et gérez les cycles de vie des documents. Cette compétence doit être utilisée lors de la création de bases de connaissances locales, de la recherche de documents personnels ou de la réalisation de questions et réponses sur des documents. Fonctionne 100 % localement avec Ollama - pas de cloud, aucune donnée ne quitte votre machine. Source : tdimino/claude-code-minoan.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/tdimino/claude-code-minoan --skill rlama
Catégorie
#Documents
Vérifié
Première apparition
2026-03-01
Mis à jour
2026-03-10

Browse more skills from tdimino/claude-code-minoan

Réponses rapides

Qu'est-ce que rlama ?

Gestion du système RAG local avec RLAMA. Créez des bases de connaissances sémantiques à partir de documents locaux (PDF, MD, code, etc.), interrogez-les en langage naturel et gérez les cycles de vie des documents. Cette compétence doit être utilisée lors de la création de bases de connaissances locales, de la recherche de documents personnels ou de la réalisation de questions et réponses sur des documents. Fonctionne 100 % localement avec Ollama - pas de cloud, aucune donnée ne quitte votre machine. Source : tdimino/claude-code-minoan.

Comment installer rlama ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/tdimino/claude-code-minoan --skill rlama Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/tdimino/claude-code-minoan