·rlm

处理文件太大而无法适应上下文(>100KB,>2000 行)。使用 Python REPL 进行结构分析,使用 LLM 查询进行语义推理,并使用子代理进行最终综合。触发器 - 大文件、大文档、大量日志、完整代码库、整个存储库、长记录、超出上下文窗口。

5安装·0热度·@whamp

安装

$npx skills add https://github.com/whamp/pi-rlm --skill rlm

如何安装 rlm

通过命令行快速安装 rlm AI 技能到你的开发环境

  1. 打开终端: 打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等)
  2. 运行安装命令: 复制并运行以下命令:npx skills add https://github.com/whamp/pi-rlm --skill rlm
  3. 验证安装: 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用

来源:whamp/pi-rlm。

SKILL.md

查看原文

Large content stays in the REPL environment, not in your context.

The REPL holds the full file in memory. You write Python to analyze it. Only your print() output returns to your context—never raw file content.

Use for: Pattern matching, structure extraction, aggregation, JSON parsing.

处理文件太大而无法适应上下文(>100KB,>2000 行)。使用 Python REPL 进行结构分析,使用 LLM 查询进行语义推理,并使用子代理进行最终综合。触发器 - 大文件、大文档、大量日志、完整代码库、整个存储库、长记录、超出上下文窗口。 来源:whamp/pi-rlm。

可引用信息

为搜索与 AI 引用准备的稳定字段与命令。

安装命令
npx skills add https://github.com/whamp/pi-rlm --skill rlm
分类
{}数据分析
认证
收录时间
2026-02-25
更新时间
2026-03-11

Browse more skills from whamp/pi-rlm

快速解答

什么是 rlm?

处理文件太大而无法适应上下文(>100KB,>2000 行)。使用 Python REPL 进行结构分析,使用 LLM 查询进行语义推理,并使用子代理进行最终综合。触发器 - 大文件、大文档、大量日志、完整代码库、整个存储库、长记录、超出上下文窗口。 来源:whamp/pi-rlm。

如何安装 rlm?

打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/whamp/pi-rlm --skill rlm 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用

这个 Skill 的源码在哪?

https://github.com/whamp/pi-rlm

详情

分类
{}数据分析
来源
skills.sh
收录时间
2026-02-25

相关 Skills

暂无