·gemini-rlm-min
</>

gemini-rlm-min

الحد الأدنى من تنفيذ نماذج اللغة العودية (RLM) باستخدام Gemini 2.0 Flash وPython REPL المحلي. يتيح معالجة السياقات الضخمة عبر Gemini CLI.

3التثبيتات·0الرائج·@starwreckntx

التثبيت

$npx skills add https://github.com/starwreckntx/irp__methodologies- --skill gemini-rlm-min

كيفية تثبيت gemini-rlm-min

ثبّت مهارة الذكاء الاصطناعي gemini-rlm-min بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/starwreckntx/irp__methodologies- --skill gemini-rlm-min
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: starwreckntx/irp__methodologies-.

Purpose: Provide a lightweight, CLI-based implementation of the Recursive Language Model architecture using Google's Gemini models. This skill allows for processing extremely large documents by orchestrating chunking, sub-LLM processing, and synthesis entirely via a Python script and the Gemini API.

| Root LLM | gemrlm.py (Orchestrator) | Gemini 2.0 Flash | | Sub-LLM | gemrlm.py (Chunk Processor) | Gemini 2.0 Flash | | External Environment | scripts/rlmrepl.py | Python 3 |

This skill serves as a high-speed, low-overhead alternative to the full rlm-context-manager when:

الحد الأدنى من تنفيذ نماذج اللغة العودية (RLM) باستخدام Gemini 2.0 Flash وPython REPL المحلي. يتيح معالجة السياقات الضخمة عبر Gemini CLI. المصدر: starwreckntx/irp__methodologies-.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/starwreckntx/irp__methodologies- --skill gemini-rlm-min
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-01
آخر تحديث
2026-03-10

Browse more skills from starwreckntx/irp__methodologies-

إجابات سريعة

ما هي gemini-rlm-min؟

الحد الأدنى من تنفيذ نماذج اللغة العودية (RLM) باستخدام Gemini 2.0 Flash وPython REPL المحلي. يتيح معالجة السياقات الضخمة عبر Gemini CLI. المصدر: starwreckntx/irp__methodologies-.

كيف أثبّت gemini-rlm-min؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/starwreckntx/irp__methodologies- --skill gemini-rlm-min بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/starwreckntx/irp__methodologies-