rlm이란?
너무 큰 파일을 처리하여 컨텍스트에 맞지 않습니다(100KB 이상, 2000줄 이상). 구조 분석을 위해 Python REPL을 사용하고 의미론적 추론을 위해 LLM 쿼리를 사용하며 최종 합성을 위해 하위 에이전트를 사용합니다. 트리거 - 대용량 파일, 대용량 문서, 대용량 로그, 전체 코드베이스, 전체 저장소, 긴 기록, 컨텍스트 창 초과. 출처: whamp/pi-rlm.
너무 큰 파일을 처리하여 컨텍스트에 맞지 않습니다(100KB 이상, 2000줄 이상). 구조 분석을 위해 Python REPL을 사용하고 의미론적 추론을 위해 LLM 쿼리를 사용하며 최종 합성을 위해 하위 에이전트를 사용합니다. 트리거 - 대용량 파일, 대용량 문서, 대용량 로그, 전체 코드베이스, 전체 저장소, 긴 기록, 컨텍스트 창 초과.
명령줄에서 rlm AI 스킬을 개발 환경에 빠르게 설치
출처: whamp/pi-rlm.
Large content stays in the REPL environment, not in your context.
The REPL holds the full file in memory. You write Python to analyze it. Only your print() output returns to your context—never raw file content.
Use for: Pattern matching, structure extraction, aggregation, JSON parsing.
너무 큰 파일을 처리하여 컨텍스트에 맞지 않습니다(100KB 이상, 2000줄 이상). 구조 분석을 위해 Python REPL을 사용하고 의미론적 추론을 위해 LLM 쿼리를 사용하며 최종 합성을 위해 하위 에이전트를 사용합니다. 트리거 - 대용량 파일, 대용량 문서, 대용량 로그, 전체 코드베이스, 전체 저장소, 긴 기록, 컨텍스트 창 초과. 출처: whamp/pi-rlm.
AI/검색 인용용 안정적인 필드와 명령어.
npx skills add https://github.com/whamp/pi-rlm --skill rlm너무 큰 파일을 처리하여 컨텍스트에 맞지 않습니다(100KB 이상, 2000줄 이상). 구조 분석을 위해 Python REPL을 사용하고 의미론적 추론을 위해 LLM 쿼리를 사용하며 최종 합성을 위해 하위 에이전트를 사용합니다. 트리거 - 대용량 파일, 대용량 문서, 대용량 로그, 전체 코드베이스, 전체 저장소, 긴 기록, 컨텍스트 창 초과. 출처: whamp/pi-rlm.
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/whamp/pi-rlm --skill rlm 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다
https://github.com/whamp/pi-rlm