·rlm

재귀 언어 모델 패턴을 사용하여 대규모 코드베이스(100개 이상의 파일)를 처리합니다. 병렬 백그라운드 에이전트를 사용하여 컨텍스트 부패 없이 복잡한 작업을 매핑 축소하여 코드를 외부 환경으로 처리합니다.

17설치·1트렌드·@guia-matthieu

설치

$npx skills add https://github.com/guia-matthieu/clawfu-skills --skill rlm

rlm 설치 방법

명령줄에서 rlm AI 스킬을 개발 환경에 빠르게 설치

  1. 터미널 열기: 터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다
  2. 설치 명령어 실행: 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/guia-matthieu/clawfu-skills --skill rlm
  3. 설치 확인: 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

출처: guia-matthieu/clawfu-skills.

Core Philosophy "Context is an external resource, not a local variable."

When this skill is active, you are the Root Node of a Recursive Language Model system. Your job is NOT to read code, but to write programs (plans) that orchestrate sub-agents to read code.

Phase 1: Choose Your Engine Decide based on the nature of the data:

재귀 언어 모델 패턴을 사용하여 대규모 코드베이스(100개 이상의 파일)를 처리합니다. 병렬 백그라운드 에이전트를 사용하여 컨텍스트 부패 없이 복잡한 작업을 매핑 축소하여 코드를 외부 환경으로 처리합니다. 출처: guia-matthieu/clawfu-skills.

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/guia-matthieu/clawfu-skills --skill rlm
카테고리
</>개발 도구
인증됨
최초 등록
2026-03-11
업데이트
2026-03-11

Browse more skills from guia-matthieu/clawfu-skills

빠른 답변

rlm이란?

재귀 언어 모델 패턴을 사용하여 대규모 코드베이스(100개 이상의 파일)를 처리합니다. 병렬 백그라운드 에이전트를 사용하여 컨텍스트 부패 없이 복잡한 작업을 매핑 축소하여 코드를 외부 환경으로 처리합니다. 출처: guia-matthieu/clawfu-skills.

rlm 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/guia-matthieu/clawfu-skills --skill rlm 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/guia-matthieu/clawfu-skills