mamba-architecture
✓複雑さ O(n) の状態空間モデルとトランスフォーマーの O(n²) の比較。 5 倍高速な推論、100 万トークンのシーケンス、KV キャッシュなし。ハードウェアを意識した設計の選択的 SSM。 Mamba-1 (d_state=16) および Mamba-2 (d_state=128、マルチヘッド)。 HuggingFace のモデル 130M-2.8B。
SKILL.md
Mamba is a state-space model architecture achieving O(n) linear complexity for sequence modeling.
Selective SSM: See references/selective-ssm.md for mathematical formulation, state-space equations, and how selectivity enables O(n) complexity.
Mamba-2 architecture: See references/mamba2-details.md for multi-head structure, tensor parallelism, and distributed training setup.
複雑さ O(n) の状態空間モデルとトランスフォーマーの O(n²) の比較。 5 倍高速な推論、100 万トークンのシーケンス、KV キャッシュなし。ハードウェアを意識した設計の選択的 SSM。 Mamba-1 (d_state=16) および Mamba-2 (d_state=128、マルチヘッド)。 HuggingFace のモデル 130M-2.8B。 ソース: orchestra-research/ai-research-skills。
引用可能な情報
AI/検索での引用用の安定したフィールドとコマンド。
- インストールコマンド
npx skills add https://github.com/orchestra-research/ai-research-skills --skill mamba-architecture- カテゴリ
- </>開発ツール
- 認証済み
- ✓
- 初回登録
- 2026-02-11
- 更新日
- 2026-02-18
クイックアンサー
mamba-architecture とは?
複雑さ O(n) の状態空間モデルとトランスフォーマーの O(n²) の比較。 5 倍高速な推論、100 万トークンのシーケンス、KV キャッシュなし。ハードウェアを意識した設計の選択的 SSM。 Mamba-1 (d_state=16) および Mamba-2 (d_state=128、マルチヘッド)。 HuggingFace のモデル 130M-2.8B。 ソース: orchestra-research/ai-research-skills。
mamba-architecture のインストール方法は?
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/orchestra-research/ai-research-skills --skill mamba-architecture インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります
ソースリポジトリはどこですか?
https://github.com/orchestra-research/ai-research-skills
詳細
- カテゴリ
- </>開発ツール
- ソース
- skills.sh
- 初回登録
- 2026-02-11