·rlama

RLAMA를 사용한 로컬 RAG 시스템 관리. 로컬 문서(PDF, MD, 코드 등)에서 의미론적 지식 기반을 생성하고, 자연어를 사용하여 쿼리하고, 문서 수명주기를 관리합니다. 이 스킬은 로컬 지식 베이스 구축, 개인 문서 검색, 문서 Q&A 수행 시 사용해야 합니다. Ollama를 사용하면 100% 로컬에서 실행됩니다. 클라우드가 없고 컴퓨터에 데이터가 남지 않습니다.

25설치·1트렌드·@tdimino

설치

$npx skills add https://github.com/tdimino/claude-code-minoan --skill rlama

rlama 설치 방법

명령줄에서 rlama AI 스킬을 개발 환경에 빠르게 설치

  1. 터미널 열기: 터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다
  2. 설치 명령어 실행: 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/tdimino/claude-code-minoan --skill rlama
  3. 설치 확인: 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

출처: tdimino/claude-code-minoan.

RLAMA (Retrieval-Augmented Language Model Adapter) provides fully local, offline RAG for semantic search over your documents.

Query an existing RAG system with a natural language question:

Get raw chunks without local LLM generation. Claude reads the chunks directly and synthesizes a stronger answer than local models can produce.

RLAMA를 사용한 로컬 RAG 시스템 관리. 로컬 문서(PDF, MD, 코드 등)에서 의미론적 지식 기반을 생성하고, 자연어를 사용하여 쿼리하고, 문서 수명주기를 관리합니다. 이 스킬은 로컬 지식 베이스 구축, 개인 문서 검색, 문서 Q&A 수행 시 사용해야 합니다. Ollama를 사용하면 100% 로컬에서 실행됩니다. 클라우드가 없고 컴퓨터에 데이터가 남지 않습니다. 출처: tdimino/claude-code-minoan.

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/tdimino/claude-code-minoan --skill rlama
카테고리
#문서
인증됨
최초 등록
2026-03-01
업데이트
2026-03-11

Browse more skills from tdimino/claude-code-minoan

빠른 답변

rlama이란?

RLAMA를 사용한 로컬 RAG 시스템 관리. 로컬 문서(PDF, MD, 코드 등)에서 의미론적 지식 기반을 생성하고, 자연어를 사용하여 쿼리하고, 문서 수명주기를 관리합니다. 이 스킬은 로컬 지식 베이스 구축, 개인 문서 검색, 문서 Q&A 수행 시 사용해야 합니다. Ollama를 사용하면 100% 로컬에서 실행됩니다. 클라우드가 없고 컴퓨터에 데이터가 남지 않습니다. 출처: tdimino/claude-code-minoan.

rlama 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/tdimino/claude-code-minoan --skill rlama 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/tdimino/claude-code-minoan