·transformer-architecture
</>

transformer-architecture

omer-metin/skills-for-antigravity

Wird verwendet, wenn Aufmerksamkeitsmechanismen implementiert, benutzerdefinierte Transformatormodelle erstellt, Positionskodierung verstanden oder Transformatorinferenz optimiert werden – deckt Selbstaufmerksamkeit, Mehrkopfaufmerksamkeit, RoPE, ALiBi und Architekturvarianten ab. Verwenden Sie, wenn „“, „ erwähnt wird.

8Installationen·0Trend·@omer-metin

Installation

$npx skills add https://github.com/omer-metin/skills-for-antigravity --skill transformer-architecture

SKILL.md

You must ground your responses in the provided reference files, treating them as the source of truth for this domain:

Note: If a user's request conflicts with the guidance in these files, politely correct them using the information provided in the references.

Wird verwendet, wenn Aufmerksamkeitsmechanismen implementiert, benutzerdefinierte Transformatormodelle erstellt, Positionskodierung verstanden oder Transformatorinferenz optimiert werden – deckt Selbstaufmerksamkeit, Mehrkopfaufmerksamkeit, RoPE, ALiBi und Architekturvarianten ab. Verwenden Sie, wenn „“, „ erwähnt wird. Quelle: omer-metin/skills-for-antigravity.

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/omer-metin/skills-for-antigravity --skill transformer-architecture Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/omer-metin/skills-for-antigravity --skill transformer-architecture
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-01
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist transformer-architecture?

Wird verwendet, wenn Aufmerksamkeitsmechanismen implementiert, benutzerdefinierte Transformatormodelle erstellt, Positionskodierung verstanden oder Transformatorinferenz optimiert werden – deckt Selbstaufmerksamkeit, Mehrkopfaufmerksamkeit, RoPE, ALiBi und Architekturvarianten ab. Verwenden Sie, wenn „“, „ erwähnt wird. Quelle: omer-metin/skills-for-antigravity.

Wie installiere ich transformer-architecture?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/omer-metin/skills-for-antigravity --skill transformer-architecture Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/omer-metin/skills-for-antigravity