·rlm

處理檔案太大而無法適應上下文(>100KB,>2000 行)。使用 Python REPL 進行結構分析,使用 LLM 查詢進行語意推理,並使用子代理進行最終綜合。觸發器 - 大檔案、大文件、大量日誌、完整程式碼庫、整個儲存庫、長記錄、超出上下文視窗。

5安裝·0熱度·@whamp

安裝

$npx skills add https://github.com/whamp/pi-rlm --skill rlm

如何安裝 rlm

透過命令列快速安裝 rlm AI 技能到你的開發環境

  1. 開啟終端機: 開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等)
  2. 執行安裝指令: 複製並執行以下指令:npx skills add https://github.com/whamp/pi-rlm --skill rlm
  3. 驗證安裝: 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用

來源:whamp/pi-rlm。

SKILL.md

查看原文

Large content stays in the REPL environment, not in your context.

The REPL holds the full file in memory. You write Python to analyze it. Only your print() output returns to your context—never raw file content.

Use for: Pattern matching, structure extraction, aggregation, JSON parsing.

處理檔案太大而無法適應上下文(>100KB,>2000 行)。使用 Python REPL 進行結構分析,使用 LLM 查詢進行語意推理,並使用子代理進行最終綜合。觸發器 - 大檔案、大文件、大量日誌、完整程式碼庫、整個儲存庫、長記錄、超出上下文視窗。 來源:whamp/pi-rlm。

可引用資訊

為搜尋與 AI 引用準備的穩定欄位與指令。

安裝指令
npx skills add https://github.com/whamp/pi-rlm --skill rlm
分類
{}資料分析
認證
收錄時間
2026-02-25
更新時間
2026-03-11

Browse more skills from whamp/pi-rlm

快速解答

什麼是 rlm?

處理檔案太大而無法適應上下文(>100KB,>2000 行)。使用 Python REPL 進行結構分析,使用 LLM 查詢進行語意推理,並使用子代理進行最終綜合。觸發器 - 大檔案、大文件、大量日誌、完整程式碼庫、整個儲存庫、長記錄、超出上下文視窗。 來源:whamp/pi-rlm。

如何安裝 rlm?

開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/whamp/pi-rlm --skill rlm 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用

這個 Skill 的原始碼在哪?

https://github.com/whamp/pi-rlm

詳情

分類
{}資料分析
來源
skills.sh
收錄時間
2026-02-25

相關 Skills

暫無