·transformer-architecture
</>

transformer-architecture

omer-metin/skills-for-antigravity

Úselo al implementar mecanismos de atención, crear modelos de transformadores personalizados, comprender la codificación posicional u optimizar la inferencia del transformador: cubre la autoatención, la atención de múltiples cabezales, RoPE, ALiBi y variantes de arquitectura. Úselo cuando ", " se mencione.

8Instalaciones·0Tendencia·@omer-metin

Instalación

$npx skills add https://github.com/omer-metin/skills-for-antigravity --skill transformer-architecture

SKILL.md

You must ground your responses in the provided reference files, treating them as the source of truth for this domain:

Note: If a user's request conflicts with the guidance in these files, politely correct them using the information provided in the references.

Úselo al implementar mecanismos de atención, crear modelos de transformadores personalizados, comprender la codificación posicional u optimizar la inferencia del transformador: cubre la autoatención, la atención de múltiples cabezales, RoPE, ALiBi y variantes de arquitectura. Úselo cuando ", " se mencione. Fuente: omer-metin/skills-for-antigravity.

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/omer-metin/skills-for-antigravity --skill transformer-architecture Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/omer-metin/skills-for-antigravity --skill transformer-architecture
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-01
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es transformer-architecture?

Úselo al implementar mecanismos de atención, crear modelos de transformadores personalizados, comprender la codificación posicional u optimizar la inferencia del transformador: cubre la autoatención, la atención de múltiples cabezales, RoPE, ALiBi y variantes de arquitectura. Úselo cuando ", " se mencione. Fuente: omer-metin/skills-for-antigravity.

¿Cómo instalo transformer-architecture?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/omer-metin/skills-for-antigravity --skill transformer-architecture Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/omer-metin/skills-for-antigravity