ما هي gemini-rlm-min؟
الحد الأدنى من تنفيذ نماذج اللغة العودية (RLM) باستخدام Gemini 2.0 Flash وPython REPL المحلي. يتيح معالجة السياقات الضخمة عبر Gemini CLI. المصدر: starwreckntx/irp__methodologies-.
الحد الأدنى من تنفيذ نماذج اللغة العودية (RLM) باستخدام Gemini 2.0 Flash وPython REPL المحلي. يتيح معالجة السياقات الضخمة عبر Gemini CLI.
ثبّت مهارة الذكاء الاصطناعي gemini-rlm-min بسرعة في بيئة التطوير لديك عبر سطر الأوامر
المصدر: starwreckntx/irp__methodologies-.
Purpose: Provide a lightweight, CLI-based implementation of the Recursive Language Model architecture using Google's Gemini models. This skill allows for processing extremely large documents by orchestrating chunking, sub-LLM processing, and synthesis entirely via a Python script and the Gemini API.
| Root LLM | gemrlm.py (Orchestrator) | Gemini 2.0 Flash | | Sub-LLM | gemrlm.py (Chunk Processor) | Gemini 2.0 Flash | | External Environment | scripts/rlmrepl.py | Python 3 |
This skill serves as a high-speed, low-overhead alternative to the full rlm-context-manager when:
الحد الأدنى من تنفيذ نماذج اللغة العودية (RLM) باستخدام Gemini 2.0 Flash وPython REPL المحلي. يتيح معالجة السياقات الضخمة عبر Gemini CLI. المصدر: starwreckntx/irp__methodologies-.
حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.
npx skills add https://github.com/starwreckntx/irp__methodologies- --skill gemini-rlm-minالحد الأدنى من تنفيذ نماذج اللغة العودية (RLM) باستخدام Gemini 2.0 Flash وPython REPL المحلي. يتيح معالجة السياقات الضخمة عبر Gemini CLI. المصدر: starwreckntx/irp__methodologies-.
افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/starwreckntx/irp__methodologies- --skill gemini-rlm-min بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw
https://github.com/starwreckntx/irp__methodologies-