·gemini-rlm-min
</>

gemini-rlm-min

starwreckntx/irp__methodologies-

Implémentation minimale de modèles de langage récursif (RLM) à l'aide de Gemini 2.0 Flash et d'un REPL Python local. Permet le traitement de contextes massifs via la CLI Gemini.

2Installations·0Tendance·@starwreckntx

Installation

$npx skills add https://github.com/starwreckntx/irp__methodologies- --skill gemini-rlm-min

SKILL.md

Purpose: Provide a lightweight, CLI-based implementation of the Recursive Language Model architecture using Google's Gemini models. This skill allows for processing extremely large documents by orchestrating chunking, sub-LLM processing, and synthesis entirely via a Python script and the Gemini API.

| Root LLM | gemrlm.py (Orchestrator) | Gemini 2.0 Flash | | Sub-LLM | gemrlm.py (Chunk Processor) | Gemini 2.0 Flash | | External Environment | scripts/rlmrepl.py | Python 3 |

This skill serves as a high-speed, low-overhead alternative to the full rlm-context-manager when:

Implémentation minimale de modèles de langage récursif (RLM) à l'aide de Gemini 2.0 Flash et d'un REPL Python local. Permet le traitement de contextes massifs via la CLI Gemini. Source : starwreckntx/irp__methodologies-.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/starwreckntx/irp__methodologies- --skill gemini-rlm-min
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-01
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que gemini-rlm-min ?

Implémentation minimale de modèles de langage récursif (RLM) à l'aide de Gemini 2.0 Flash et d'un REPL Python local. Permet le traitement de contextes massifs via la CLI Gemini. Source : starwreckntx/irp__methodologies-.

Comment installer gemini-rlm-min ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/starwreckntx/irp__methodologies- --skill gemini-rlm-min Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/starwreckntx/irp__methodologies-