·rlama

Gestione del sistema RAG locale con RLAMA. Crea basi di conoscenza semantica da documenti locali (PDF, MD, codice, ecc.), interrogali utilizzando il linguaggio naturale e gestisci i cicli di vita dei documenti. Questa competenza dovrebbe essere utilizzata durante la creazione di basi di conoscenza locali, la ricerca di documenti personali o l'esecuzione di domande e risposte sui documenti. Funziona al 100% localmente con Ollama: nessun cloud, nessun dato lascia il tuo computer.

25Installazioni·1Tendenza·@tdimino

Installazione

$npx skills add https://github.com/tdimino/claude-code-minoan --skill rlama

Come installare rlama

Installa rapidamente la skill AI rlama nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/tdimino/claude-code-minoan --skill rlama
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: tdimino/claude-code-minoan.

RLAMA (Retrieval-Augmented Language Model Adapter) provides fully local, offline RAG for semantic search over your documents.

Query an existing RAG system with a natural language question:

Get raw chunks without local LLM generation. Claude reads the chunks directly and synthesizes a stronger answer than local models can produce.

Gestione del sistema RAG locale con RLAMA. Crea basi di conoscenza semantica da documenti locali (PDF, MD, codice, ecc.), interrogali utilizzando il linguaggio naturale e gestisci i cicli di vita dei documenti. Questa competenza dovrebbe essere utilizzata durante la creazione di basi di conoscenza locali, la ricerca di documenti personali o l'esecuzione di domande e risposte sui documenti. Funziona al 100% localmente con Ollama: nessun cloud, nessun dato lascia il tuo computer. Fonte: tdimino/claude-code-minoan.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/tdimino/claude-code-minoan --skill rlama
Categoria
#Documenti
Verificato
Prima apparizione
2026-03-01
Aggiornato
2026-03-10

Browse more skills from tdimino/claude-code-minoan

Risposte rapide

Che cos'è rlama?

Gestione del sistema RAG locale con RLAMA. Crea basi di conoscenza semantica da documenti locali (PDF, MD, codice, ecc.), interrogali utilizzando il linguaggio naturale e gestisci i cicli di vita dei documenti. Questa competenza dovrebbe essere utilizzata durante la creazione di basi di conoscenza locali, la ricerca di documenti personali o l'esecuzione di domande e risposte sui documenti. Funziona al 100% localmente con Ollama: nessun cloud, nessun dato lascia il tuo computer. Fonte: tdimino/claude-code-minoan.

Come installo rlama?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/tdimino/claude-code-minoan --skill rlama Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/tdimino/claude-code-minoan