·transformer-lens-interpretability
</>

transformer-lens-interpretability

orchestra-research/ai-research-skills

Bietet Anleitungen für die mechanistische Interpretierbarkeitsforschung mit TransformerLens, um Transformator-Interna über HookPoints und Aktivierungs-Caching zu überprüfen und zu manipulieren. Verwenden Sie es, wenn Sie Modellalgorithmen zurückentwickeln, Aufmerksamkeitsmuster untersuchen oder Aktivierungs-Patching-Experimente durchführen.

14Installationen·0Trend·@orchestra-research

Installation

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability

SKILL.md

TransformerLens is the de facto standard library for mechanistic interpretability research on GPT-style language models. Created by Neel Nanda and maintained by Bryce Meyer, it provides clean interfaces to inspect and manipulate model internals via HookPoints on every activation.

The main class that wraps transformer models with HookPoints on every activation:

| GPT-2 | gpt2, gpt2-medium, gpt2-large, gpt2-xl | | LLaMA | llama-7b, llama-13b, llama-2-7b, llama-2-13b | | EleutherAI | pythia-70m to pythia-12b, gpt-neo, gpt-j-6b | | Mistral | mistral-7b, mixtral-8x7b | | Others | phi, qwen, opt, gemma |

Bietet Anleitungen für die mechanistische Interpretierbarkeitsforschung mit TransformerLens, um Transformator-Interna über HookPoints und Aktivierungs-Caching zu überprüfen und zu manipulieren. Verwenden Sie es, wenn Sie Modellalgorithmen zurückentwickeln, Aufmerksamkeitsmuster untersuchen oder Aktivierungs-Patching-Experimente durchführen. Quelle: orchestra-research/ai-research-skills.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-11
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist transformer-lens-interpretability?

Bietet Anleitungen für die mechanistische Interpretierbarkeitsforschung mit TransformerLens, um Transformator-Interna über HookPoints und Aktivierungs-Caching zu überprüfen und zu manipulieren. Verwenden Sie es, wenn Sie Modellalgorithmen zurückentwickeln, Aufmerksamkeitsmuster untersuchen oder Aktivierungs-Patching-Experimente durchführen. Quelle: orchestra-research/ai-research-skills.

Wie installiere ich transformer-lens-interpretability?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/orchestra-research/ai-research-skills