long-context
✓Erweitern Sie Kontextfenster von Transformatormodellen mithilfe von RoPE-, YaRN-, ALiBi- und Positionsinterpolationstechniken. Verwendung bei der Verarbeitung langer Dokumente (32.000–128.000+ Token), bei der Erweiterung vorab trainierter Modelle über die ursprünglichen Kontextgrenzen hinaus oder bei der Implementierung effizienter Positionskodierungen. Behandelt rotierende Einbettungen, Aufmerksamkeitsverzerrungen, Interpolationsmethoden und Extrapolationsstrategien für LLMs.
Installation
SKILL.md
Key Techniques: RoPE (Rotary Position Embeddings), YaRN, ALiBi (Attention with Linear Biases), Position Interpolation
Papers: RoFormer (arXiv 2104.09864), YaRN (arXiv 2309.00071), ALiBi (arXiv 2108.12409), Position Interpolation (arXiv 2306.15595)
| Method | Max Context | Training Needed | Memory | Extrapolation | Best For |
Erweitern Sie Kontextfenster von Transformatormodellen mithilfe von RoPE-, YaRN-, ALiBi- und Positionsinterpolationstechniken. Verwendung bei der Verarbeitung langer Dokumente (32.000–128.000+ Token), bei der Erweiterung vorab trainierter Modelle über die ursprünglichen Kontextgrenzen hinaus oder bei der Implementierung effizienter Positionskodierungen. Behandelt rotierende Einbettungen, Aufmerksamkeitsverzerrungen, Interpolationsmethoden und Extrapolationsstrategien für LLMs. Quelle: ovachiever/droid-tings.
Fakten (zitierbereit)
Stabile Felder und Befehle für KI/Such-Zitate.
- Installationsbefehl
npx skills add https://github.com/ovachiever/droid-tings --skill long-context- Quelle
- ovachiever/droid-tings
- Kategorie
- </>Entwicklung
- Verifiziert
- ✓
- Erstes Auftreten
- 2026-02-01
- Aktualisiert
- 2026-02-18
Schnelle Antworten
Was ist long-context?
Erweitern Sie Kontextfenster von Transformatormodellen mithilfe von RoPE-, YaRN-, ALiBi- und Positionsinterpolationstechniken. Verwendung bei der Verarbeitung langer Dokumente (32.000–128.000+ Token), bei der Erweiterung vorab trainierter Modelle über die ursprünglichen Kontextgrenzen hinaus oder bei der Implementierung effizienter Positionskodierungen. Behandelt rotierende Einbettungen, Aufmerksamkeitsverzerrungen, Interpolationsmethoden und Extrapolationsstrategien für LLMs. Quelle: ovachiever/droid-tings.
Wie installiere ich long-context?
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/ovachiever/droid-tings --skill long-context Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Wo ist das Quell-Repository?
https://github.com/ovachiever/droid-tings
Details
- Kategorie
- </>Entwicklung
- Quelle
- skills.sh
- Erstes Auftreten
- 2026-02-01