·mamba-architecture
</>

mamba-architecture

orchestra-research/ai-research-skills

Zustandsraummodell mit O(n)-Komplexität vs. Transformers' O(n²). 5-mal schnellere Inferenz, Millionen-Token-Sequenzen, kein KV-Cache. Selektives SSM mit hardwarebewusstem Design. Mamba-1 (d_state=16) und Mamba-2 (d_state=128, Multi-Head). Modelle 130M-2.8B auf HuggingFace.

15Installationen·0Trend·@orchestra-research

Installation

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill mamba-architecture

SKILL.md

Mamba is a state-space model architecture achieving O(n) linear complexity for sequence modeling.

Selective SSM: See references/selective-ssm.md for mathematical formulation, state-space equations, and how selectivity enables O(n) complexity.

Mamba-2 architecture: See references/mamba2-details.md for multi-head structure, tensor parallelism, and distributed training setup.

Zustandsraummodell mit O(n)-Komplexität vs. Transformers' O(n²). 5-mal schnellere Inferenz, Millionen-Token-Sequenzen, kein KV-Cache. Selektives SSM mit hardwarebewusstem Design. Mamba-1 (d_state=16) und Mamba-2 (d_state=128, Multi-Head). Modelle 130M-2.8B auf HuggingFace. Quelle: orchestra-research/ai-research-skills.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/orchestra-research/ai-research-skills --skill mamba-architecture
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-11
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist mamba-architecture?

Zustandsraummodell mit O(n)-Komplexität vs. Transformers' O(n²). 5-mal schnellere Inferenz, Millionen-Token-Sequenzen, kein KV-Cache. Selektives SSM mit hardwarebewusstem Design. Mamba-1 (d_state=16) und Mamba-2 (d_state=128, Multi-Head). Modelle 130M-2.8B auf HuggingFace. Quelle: orchestra-research/ai-research-skills.

Wie installiere ich mamba-architecture?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/orchestra-research/ai-research-skills --skill mamba-architecture Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/orchestra-research/ai-research-skills