·rlm

Procesar archivos demasiado grandes para encajar en el contexto (>100 KB, >2000 líneas). Utiliza Python REPL para análisis estructural, consultas LLM para razonamiento semántico y subagentes para síntesis final. Desencadenantes: archivo grande, documento grande, registro masivo, código base completo, repositorio completo, transcripción larga, ventana de contexto excedida.

5Instalaciones·0Tendencia·@whamp

Instalación

$npx skills add https://github.com/whamp/pi-rlm --skill rlm

Cómo instalar rlm

Instala rápidamente el skill de IA rlm en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/whamp/pi-rlm --skill rlm
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: whamp/pi-rlm.

SKILL.md

Ver original

Large content stays in the REPL environment, not in your context.

The REPL holds the full file in memory. You write Python to analyze it. Only your print() output returns to your context—never raw file content.

Use for: Pattern matching, structure extraction, aggregation, JSON parsing.

Procesar archivos demasiado grandes para encajar en el contexto (>100 KB, >2000 líneas). Utiliza Python REPL para análisis estructural, consultas LLM para razonamiento semántico y subagentes para síntesis final. Desencadenantes: archivo grande, documento grande, registro masivo, código base completo, repositorio completo, transcripción larga, ventana de contexto excedida. Fuente: whamp/pi-rlm.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/whamp/pi-rlm --skill rlm
Categoría
{}Análisis de Datos
Verificado
Primera vez visto
2026-02-25
Actualizado
2026-03-11

Browse more skills from whamp/pi-rlm

Respuestas rápidas

¿Qué es rlm?

Procesar archivos demasiado grandes para encajar en el contexto (>100 KB, >2000 líneas). Utiliza Python REPL para análisis estructural, consultas LLM para razonamiento semántico y subagentes para síntesis final. Desencadenantes: archivo grande, documento grande, registro masivo, código base completo, repositorio completo, transcripción larga, ventana de contexto excedida. Fuente: whamp/pi-rlm.

¿Cómo instalo rlm?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/whamp/pi-rlm --skill rlm Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/whamp/pi-rlm

Detalles

Categoría
{}Análisis de Datos
Fuente
skills.sh
Primera vez visto
2026-02-25

Skills Relacionados

Ninguno