transformer-lens-interpretability
✓Proporciona orientación para la investigación de interpretabilidad mecanicista utilizando TransformerLens para inspeccionar y manipular los componentes internos del transformador a través de HookPoints y el almacenamiento en caché de activación. Úselo cuando realice ingeniería inversa en algoritmos de modelos, estudie patrones de atención o realice experimentos de parches de activación.
SKILL.md
TransformerLens is the de facto standard library for mechanistic interpretability research on GPT-style language models. Created by Neel Nanda and maintained by Bryce Meyer, it provides clean interfaces to inspect and manipulate model internals via HookPoints on every activation.
The main class that wraps transformer models with HookPoints on every activation:
| GPT-2 | gpt2, gpt2-medium, gpt2-large, gpt2-xl | | LLaMA | llama-7b, llama-13b, llama-2-7b, llama-2-13b | | EleutherAI | pythia-70m to pythia-12b, gpt-neo, gpt-j-6b | | Mistral | mistral-7b, mixtral-8x7b | | Others | phi, qwen, opt, gemma |
Proporciona orientación para la investigación de interpretabilidad mecanicista utilizando TransformerLens para inspeccionar y manipular los componentes internos del transformador a través de HookPoints y el almacenamiento en caché de activación. Úselo cuando realice ingeniería inversa en algoritmos de modelos, estudie patrones de atención o realice experimentos de parches de activación. Fuente: orchestra-research/ai-research-skills.
Datos (listos para citar)
Campos y comandos estables para citas de IA/búsqueda.
- Comando de instalación
npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability- Categoría
- </>Desarrollo
- Verificado
- ✓
- Primera vez visto
- 2026-02-11
- Actualizado
- 2026-02-18
Respuestas rápidas
¿Qué es transformer-lens-interpretability?
Proporciona orientación para la investigación de interpretabilidad mecanicista utilizando TransformerLens para inspeccionar y manipular los componentes internos del transformador a través de HookPoints y el almacenamiento en caché de activación. Úselo cuando realice ingeniería inversa en algoritmos de modelos, estudie patrones de atención o realice experimentos de parches de activación. Fuente: orchestra-research/ai-research-skills.
¿Cómo instalo transformer-lens-interpretability?
Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor
¿Dónde está el repositorio de origen?
https://github.com/orchestra-research/ai-research-skills
Detalles
- Categoría
- </>Desarrollo
- Fuente
- skills.sh
- Primera vez visto
- 2026-02-11