·gemini-rlm-min
</>

gemini-rlm-min

Implementazione minima di Recursive Language Models (RLM) utilizzando Gemini 2.0 Flash e un REPL Python locale. Abilita l'elaborazione di contesti massicci tramite Gemini CLI.

3Installazioni·0Tendenza·@starwreckntx

Installazione

$npx skills add https://github.com/starwreckntx/irp__methodologies- --skill gemini-rlm-min

Come installare gemini-rlm-min

Installa rapidamente la skill AI gemini-rlm-min nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/starwreckntx/irp__methodologies- --skill gemini-rlm-min
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: starwreckntx/irp__methodologies-.

Purpose: Provide a lightweight, CLI-based implementation of the Recursive Language Model architecture using Google's Gemini models. This skill allows for processing extremely large documents by orchestrating chunking, sub-LLM processing, and synthesis entirely via a Python script and the Gemini API.

| Root LLM | gemrlm.py (Orchestrator) | Gemini 2.0 Flash | | Sub-LLM | gemrlm.py (Chunk Processor) | Gemini 2.0 Flash | | External Environment | scripts/rlmrepl.py | Python 3 |

This skill serves as a high-speed, low-overhead alternative to the full rlm-context-manager when:

Implementazione minima di Recursive Language Models (RLM) utilizzando Gemini 2.0 Flash e un REPL Python locale. Abilita l'elaborazione di contesti massicci tramite Gemini CLI. Fonte: starwreckntx/irp__methodologies-.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/starwreckntx/irp__methodologies- --skill gemini-rlm-min
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-11

Browse more skills from starwreckntx/irp__methodologies-

Risposte rapide

Che cos'è gemini-rlm-min?

Implementazione minima di Recursive Language Models (RLM) utilizzando Gemini 2.0 Flash e un REPL Python locale. Abilita l'elaborazione di contesti massicci tramite Gemini CLI. Fonte: starwreckntx/irp__methodologies-.

Come installo gemini-rlm-min?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/starwreckntx/irp__methodologies- --skill gemini-rlm-min Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/starwreckntx/irp__methodologies-