·transformer-lens-interpretability
</>

transformer-lens-interpretability

Fornisce indicazioni per la ricerca sull'interpretabilità meccanicistica utilizzando TransformerLens per ispezionare e manipolare i componenti interni del trasformatore tramite HookPoint e memorizzazione nella cache di attivazione. Da utilizzare durante il reverse engineering degli algoritmi dei modelli, lo studio dei modelli di attenzione o l'esecuzione di esperimenti di patching di attivazione.

37Installazioni·2Tendenza·@orchestra-research

Installazione

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability

Come installare transformer-lens-interpretability

Installa rapidamente la skill AI transformer-lens-interpretability nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: orchestra-research/ai-research-skills.

TransformerLens is the de facto standard library for mechanistic interpretability research on GPT-style language models. Created by Neel Nanda and maintained by Bryce Meyer, it provides clean interfaces to inspect and manipulate model internals via HookPoints on every activation.

The main class that wraps transformer models with HookPoints on every activation:

| GPT-2 | gpt2, gpt2-medium, gpt2-large, gpt2-xl | | LLaMA | llama-7b, llama-13b, llama-2-7b, llama-2-13b | | EleutherAI | pythia-70m to pythia-12b, gpt-neo, gpt-j-6b | | Mistral | mistral-7b, mixtral-8x7b | | Others | phi, qwen, opt, gemma |

Fornisce indicazioni per la ricerca sull'interpretabilità meccanicistica utilizzando TransformerLens per ispezionare e manipolare i componenti interni del trasformatore tramite HookPoint e memorizzazione nella cache di attivazione. Da utilizzare durante il reverse engineering degli algoritmi dei modelli, lo studio dei modelli di attenzione o l'esecuzione di esperimenti di patching di attivazione. Fonte: orchestra-research/ai-research-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-11
Aggiornato
2026-03-10

Browse more skills from orchestra-research/ai-research-skills

Risposte rapide

Che cos'è transformer-lens-interpretability?

Fornisce indicazioni per la ricerca sull'interpretabilità meccanicistica utilizzando TransformerLens per ispezionare e manipolare i componenti interni del trasformatore tramite HookPoint e memorizzazione nella cache di attivazione. Da utilizzare durante il reverse engineering degli algoritmi dei modelli, lo studio dei modelli di attenzione o l'esecuzione di esperimenti di patching di attivazione. Fonte: orchestra-research/ai-research-skills.

Come installo transformer-lens-interpretability?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/orchestra-research/ai-research-skills