·long-context
</>

long-context

Расширяйте контекстные окна моделей трансформаторов, используя методы RoPE, YaRN, ALiBi и позиционной интерполяции. Используйте при обработке длинных документов (32–128 тыс.+ токенов), расширении предварительно обученных моделей за пределы исходных ограничений контекста или реализации эффективного позиционного кодирования. Охватывает вращающиеся вложения, предвзятость внимания, методы интерполяции и стратегии экстраполяции для LLM.

39Установки·2Тренд·@orchestra-research

Установка

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill long-context

Как установить long-context

Быстро установите AI-навык long-context в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/orchestra-research/ai-research-skills --skill long-context
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: orchestra-research/ai-research-skills.

Key Techniques: RoPE (Rotary Position Embeddings), YaRN, ALiBi (Attention with Linear Biases), Position Interpolation

Papers: RoFormer (arXiv 2104.09864), YaRN (arXiv 2309.00071), ALiBi (arXiv 2108.12409), Position Interpolation (arXiv 2306.15595)

| Method | Max Context | Training Needed | Memory | Extrapolation | Best For |

Расширяйте контекстные окна моделей трансформаторов, используя методы RoPE, YaRN, ALiBi и позиционной интерполяции. Используйте при обработке длинных документов (32–128 тыс.+ токенов), расширении предварительно обученных моделей за пределы исходных ограничений контекста или реализации эффективного позиционного кодирования. Охватывает вращающиеся вложения, предвзятость внимания, методы интерполяции и стратегии экстраполяции для LLM. Источник: orchestra-research/ai-research-skills.

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/orchestra-research/ai-research-skills --skill long-context
Категория
</>Разработка
Проверено
Впервые замечено
2026-02-11
Обновлено
2026-03-10

Browse more skills from orchestra-research/ai-research-skills

Короткие ответы

Что такое long-context?

Расширяйте контекстные окна моделей трансформаторов, используя методы RoPE, YaRN, ALiBi и позиционной интерполяции. Используйте при обработке длинных документов (32–128 тыс.+ токенов), расширении предварительно обученных моделей за пределы исходных ограничений контекста или реализации эффективного позиционного кодирования. Охватывает вращающиеся вложения, предвзятость внимания, методы интерполяции и стратегии экстраполяции для LLM. Источник: orchestra-research/ai-research-skills.

Как установить long-context?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/orchestra-research/ai-research-skills --skill long-context После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/orchestra-research/ai-research-skills

Детали

Категория
</>Разработка
Источник
skills.sh
Впервые замечено
2026-02-11