·transformer-lens-interpretability
</>

transformer-lens-interpretability

orchestra-research/ai-research-skills

Proporciona orientación para la investigación de interpretabilidad mecanicista utilizando TransformerLens para inspeccionar y manipular los componentes internos del transformador a través de HookPoints y el almacenamiento en caché de activación. Úselo cuando realice ingeniería inversa en algoritmos de modelos, estudie patrones de atención o realice experimentos de parches de activación.

14Instalaciones·0Tendencia·@orchestra-research

Instalación

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability

SKILL.md

TransformerLens is the de facto standard library for mechanistic interpretability research on GPT-style language models. Created by Neel Nanda and maintained by Bryce Meyer, it provides clean interfaces to inspect and manipulate model internals via HookPoints on every activation.

The main class that wraps transformer models with HookPoints on every activation:

| GPT-2 | gpt2, gpt2-medium, gpt2-large, gpt2-xl | | LLaMA | llama-7b, llama-13b, llama-2-7b, llama-2-13b | | EleutherAI | pythia-70m to pythia-12b, gpt-neo, gpt-j-6b | | Mistral | mistral-7b, mixtral-8x7b | | Others | phi, qwen, opt, gemma |

Proporciona orientación para la investigación de interpretabilidad mecanicista utilizando TransformerLens para inspeccionar y manipular los componentes internos del transformador a través de HookPoints y el almacenamiento en caché de activación. Úselo cuando realice ingeniería inversa en algoritmos de modelos, estudie patrones de atención o realice experimentos de parches de activación. Fuente: orchestra-research/ai-research-skills.

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-11
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es transformer-lens-interpretability?

Proporciona orientación para la investigación de interpretabilidad mecanicista utilizando TransformerLens para inspeccionar y manipular los componentes internos del transformador a través de HookPoints y el almacenamiento en caché de activación. Úselo cuando realice ingeniería inversa en algoritmos de modelos, estudie patrones de atención o realice experimentos de parches de activación. Fuente: orchestra-research/ai-research-skills.

¿Cómo instalo transformer-lens-interpretability?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/orchestra-research/ai-research-skills