transformer-lens-interpretability
✓Fournit des conseils pour la recherche d’interprétabilité mécaniste à l’aide de TransformerLens pour inspecter et manipuler les composants internes du transformateur via HookPoints et la mise en cache d’activation. À utiliser lors de la rétro-ingénierie d'algorithmes de modèles, de l'étude des modèles d'attention ou de la réalisation d'expériences de correctifs d'activation.
Installation
SKILL.md
TransformerLens is the de facto standard library for mechanistic interpretability research on GPT-style language models. Created by Neel Nanda and maintained by Bryce Meyer, it provides clean interfaces to inspect and manipulate model internals via HookPoints on every activation.
The main class that wraps transformer models with HookPoints on every activation:
| GPT-2 | gpt2, gpt2-medium, gpt2-large, gpt2-xl | | LLaMA | llama-7b, llama-13b, llama-2-7b, llama-2-13b | | EleutherAI | pythia-70m to pythia-12b, gpt-neo, gpt-j-6b | | Mistral | mistral-7b, mixtral-8x7b | | Others | phi, qwen, opt, gemma |
Fournit des conseils pour la recherche d’interprétabilité mécaniste à l’aide de TransformerLens pour inspecter et manipuler les composants internes du transformateur via HookPoints et la mise en cache d’activation. À utiliser lors de la rétro-ingénierie d'algorithmes de modèles, de l'étude des modèles d'attention ou de la réalisation d'expériences de correctifs d'activation. Source : orchestra-research/ai-research-skills.
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability- Catégorie
- </>Développement
- Vérifié
- ✓
- Première apparition
- 2026-02-11
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que transformer-lens-interpretability ?
Fournit des conseils pour la recherche d’interprétabilité mécaniste à l’aide de TransformerLens pour inspecter et manipuler les composants internes du transformateur via HookPoints et la mise en cache d’activation. À utiliser lors de la rétro-ingénierie d'algorithmes de modèles, de l'étude des modèles d'attention ou de la réalisation d'expériences de correctifs d'activation. Source : orchestra-research/ai-research-skills.
Comment installer transformer-lens-interpretability ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/orchestra-research/ai-research-skills
Détails
- Catégorie
- </>Développement
- Source
- skills.sh
- Première apparition
- 2026-02-11