什么是 rlm?
处理文件太大而无法适应上下文(>100KB,>2000 行)。使用 Python REPL 进行结构分析,使用 LLM 查询进行语义推理,并使用子代理进行最终综合。触发器 - 大文件、大文档、大量日志、完整代码库、整个存储库、长记录、超出上下文窗口。 来源:whamp/pi-rlm。
处理文件太大而无法适应上下文(>100KB,>2000 行)。使用 Python REPL 进行结构分析,使用 LLM 查询进行语义推理,并使用子代理进行最终综合。触发器 - 大文件、大文档、大量日志、完整代码库、整个存储库、长记录、超出上下文窗口。
通过命令行快速安装 rlm AI 技能到你的开发环境
来源:whamp/pi-rlm。
Large content stays in the REPL environment, not in your context.
The REPL holds the full file in memory. You write Python to analyze it. Only your print() output returns to your context—never raw file content.
Use for: Pattern matching, structure extraction, aggregation, JSON parsing.
处理文件太大而无法适应上下文(>100KB,>2000 行)。使用 Python REPL 进行结构分析,使用 LLM 查询进行语义推理,并使用子代理进行最终综合。触发器 - 大文件、大文档、大量日志、完整代码库、整个存储库、长记录、超出上下文窗口。 来源:whamp/pi-rlm。
为搜索与 AI 引用准备的稳定字段与命令。
npx skills add https://github.com/whamp/pi-rlm --skill rlm处理文件太大而无法适应上下文(>100KB,>2000 行)。使用 Python REPL 进行结构分析,使用 LLM 查询进行语义推理,并使用子代理进行最终综合。触发器 - 大文件、大文档、大量日志、完整代码库、整个存储库、长记录、超出上下文窗口。 来源:whamp/pi-rlm。
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/whamp/pi-rlm --skill rlm 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/whamp/pi-rlm