Che cos'è long-context?
Estendi le finestre di contesto dei modelli di trasformatori utilizzando RoPE, YaRN, ALiBi e tecniche di interpolazione della posizione. Da utilizzare durante l'elaborazione di documenti lunghi (32.000-128.000+ token), l'estensione di modelli preaddestrati oltre i limiti del contesto originale o l'implementazione di codifiche posizionali efficienti. Copre incorporamenti rotanti, distorsioni dell'attenzione, metodi di interpolazione e strategie di estrapolazione per LLM. Fonte: ovachiever/droid-tings.