·long-context
</>

long-context

orchestra-research/ai-research-skills

Erweitern Sie Kontextfenster von Transformatormodellen mithilfe von RoPE-, YaRN-, ALiBi- und Positionsinterpolationstechniken. Verwendung bei der Verarbeitung langer Dokumente (32.000–128.000+ Token), bei der Erweiterung vorab trainierter Modelle über die ursprünglichen Kontextgrenzen hinaus oder bei der Implementierung effizienter Positionskodierungen. Behandelt rotierende Einbettungen, Aufmerksamkeitsverzerrungen, Interpolationsmethoden und Extrapolationsstrategien für LLMs.

14Installationen·0Trend·@orchestra-research

Installation

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill long-context

SKILL.md

Key Techniques: RoPE (Rotary Position Embeddings), YaRN, ALiBi (Attention with Linear Biases), Position Interpolation

Papers: RoFormer (arXiv 2104.09864), YaRN (arXiv 2309.00071), ALiBi (arXiv 2108.12409), Position Interpolation (arXiv 2306.15595)

| Method | Max Context | Training Needed | Memory | Extrapolation | Best For |

Erweitern Sie Kontextfenster von Transformatormodellen mithilfe von RoPE-, YaRN-, ALiBi- und Positionsinterpolationstechniken. Verwendung bei der Verarbeitung langer Dokumente (32.000–128.000+ Token), bei der Erweiterung vorab trainierter Modelle über die ursprünglichen Kontextgrenzen hinaus oder bei der Implementierung effizienter Positionskodierungen. Behandelt rotierende Einbettungen, Aufmerksamkeitsverzerrungen, Interpolationsmethoden und Extrapolationsstrategien für LLMs. Quelle: orchestra-research/ai-research-skills.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/orchestra-research/ai-research-skills --skill long-context
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-11
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist long-context?

Erweitern Sie Kontextfenster von Transformatormodellen mithilfe von RoPE-, YaRN-, ALiBi- und Positionsinterpolationstechniken. Verwendung bei der Verarbeitung langer Dokumente (32.000–128.000+ Token), bei der Erweiterung vorab trainierter Modelle über die ursprünglichen Kontextgrenzen hinaus oder bei der Implementierung effizienter Positionskodierungen. Behandelt rotierende Einbettungen, Aufmerksamkeitsverzerrungen, Interpolationsmethoden und Extrapolationsstrategien für LLMs. Quelle: orchestra-research/ai-research-skills.

Wie installiere ich long-context?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/orchestra-research/ai-research-skills --skill long-context Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/orchestra-research/ai-research-skills