rlama이란?
RLAMA를 사용한 로컬 RAG 시스템 관리. 로컬 문서(PDF, MD, 코드 등)에서 의미론적 지식 기반을 생성하고, 자연어를 사용하여 쿼리하고, 문서 수명주기를 관리합니다. 이 스킬은 로컬 지식 베이스 구축, 개인 문서 검색, 문서 Q&A 수행 시 사용해야 합니다. Ollama를 사용하면 100% 로컬에서 실행됩니다. 클라우드가 없고 컴퓨터에 데이터가 남지 않습니다. 출처: tdimino/claude-code-minoan.
RLAMA를 사용한 로컬 RAG 시스템 관리. 로컬 문서(PDF, MD, 코드 등)에서 의미론적 지식 기반을 생성하고, 자연어를 사용하여 쿼리하고, 문서 수명주기를 관리합니다. 이 스킬은 로컬 지식 베이스 구축, 개인 문서 검색, 문서 Q&A 수행 시 사용해야 합니다. Ollama를 사용하면 100% 로컬에서 실행됩니다. 클라우드가 없고 컴퓨터에 데이터가 남지 않습니다.
명령줄에서 rlama AI 스킬을 개발 환경에 빠르게 설치
출처: tdimino/claude-code-minoan.
RLAMA (Retrieval-Augmented Language Model Adapter) provides fully local, offline RAG for semantic search over your documents.
Query an existing RAG system with a natural language question:
Get raw chunks without local LLM generation. Claude reads the chunks directly and synthesizes a stronger answer than local models can produce.
RLAMA를 사용한 로컬 RAG 시스템 관리. 로컬 문서(PDF, MD, 코드 등)에서 의미론적 지식 기반을 생성하고, 자연어를 사용하여 쿼리하고, 문서 수명주기를 관리합니다. 이 스킬은 로컬 지식 베이스 구축, 개인 문서 검색, 문서 Q&A 수행 시 사용해야 합니다. Ollama를 사용하면 100% 로컬에서 실행됩니다. 클라우드가 없고 컴퓨터에 데이터가 남지 않습니다. 출처: tdimino/claude-code-minoan.
AI/검색 인용용 안정적인 필드와 명령어.
npx skills add https://github.com/tdimino/claude-code-minoan --skill rlamaRLAMA를 사용한 로컬 RAG 시스템 관리. 로컬 문서(PDF, MD, 코드 등)에서 의미론적 지식 기반을 생성하고, 자연어를 사용하여 쿼리하고, 문서 수명주기를 관리합니다. 이 스킬은 로컬 지식 베이스 구축, 개인 문서 검색, 문서 Q&A 수행 시 사용해야 합니다. Ollama를 사용하면 100% 로컬에서 실행됩니다. 클라우드가 없고 컴퓨터에 데이터가 남지 않습니다. 출처: tdimino/claude-code-minoan.
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/tdimino/claude-code-minoan --skill rlama 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다
https://github.com/tdimino/claude-code-minoan