·rlm

너무 큰 파일을 처리하여 컨텍스트에 맞지 않습니다(100KB 이상, 2000줄 이상). 구조 분석을 위해 Python REPL을 사용하고 의미론적 추론을 위해 LLM 쿼리를 사용하며 최종 합성을 위해 하위 에이전트를 사용합니다. 트리거 - 대용량 파일, 대용량 문서, 대용량 로그, 전체 코드베이스, 전체 저장소, 긴 기록, 컨텍스트 창 초과.

5설치·0트렌드·@whamp

설치

$npx skills add https://github.com/whamp/pi-rlm --skill rlm

rlm 설치 방법

명령줄에서 rlm AI 스킬을 개발 환경에 빠르게 설치

  1. 터미널 열기: 터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다
  2. 설치 명령어 실행: 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/whamp/pi-rlm --skill rlm
  3. 설치 확인: 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

출처: whamp/pi-rlm.

Large content stays in the REPL environment, not in your context.

The REPL holds the full file in memory. You write Python to analyze it. Only your print() output returns to your context—never raw file content.

Use for: Pattern matching, structure extraction, aggregation, JSON parsing.

너무 큰 파일을 처리하여 컨텍스트에 맞지 않습니다(100KB 이상, 2000줄 이상). 구조 분석을 위해 Python REPL을 사용하고 의미론적 추론을 위해 LLM 쿼리를 사용하며 최종 합성을 위해 하위 에이전트를 사용합니다. 트리거 - 대용량 파일, 대용량 문서, 대용량 로그, 전체 코드베이스, 전체 저장소, 긴 기록, 컨텍스트 창 초과. 출처: whamp/pi-rlm.

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/whamp/pi-rlm --skill rlm
카테고리
{}데이터 분석
인증됨
최초 등록
2026-02-25
업데이트
2026-03-10

Browse more skills from whamp/pi-rlm

빠른 답변

rlm이란?

너무 큰 파일을 처리하여 컨텍스트에 맞지 않습니다(100KB 이상, 2000줄 이상). 구조 분석을 위해 Python REPL을 사용하고 의미론적 추론을 위해 LLM 쿼리를 사용하며 최종 합성을 위해 하위 에이전트를 사용합니다. 트리거 - 대용량 파일, 대용량 문서, 대용량 로그, 전체 코드베이스, 전체 저장소, 긴 기록, 컨텍스트 창 초과. 출처: whamp/pi-rlm.

rlm 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/whamp/pi-rlm --skill rlm 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/whamp/pi-rlm

상세

카테고리
{}데이터 분석
출처
skills.sh
최초 등록
2026-02-25

관련 Skills

없음