·transformer-lens-interpretability
</>

transformer-lens-interpretability

Содержит рекомендации по исследованию механистической интерпретируемости с использованием TransformerLens для проверки и управления внутренними компонентами трансформатора с помощью HookPoints и кэширования активации. Используйте при обратном проектировании алгоритмов модели, изучении моделей внимания или проведении экспериментов по исправлению активации.

37Установки·2Тренд·@orchestra-research

Установка

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability

Как установить transformer-lens-interpretability

Быстро установите AI-навык transformer-lens-interpretability в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: orchestra-research/ai-research-skills.

TransformerLens is the de facto standard library for mechanistic interpretability research on GPT-style language models. Created by Neel Nanda and maintained by Bryce Meyer, it provides clean interfaces to inspect and manipulate model internals via HookPoints on every activation.

The main class that wraps transformer models with HookPoints on every activation:

| GPT-2 | gpt2, gpt2-medium, gpt2-large, gpt2-xl | | LLaMA | llama-7b, llama-13b, llama-2-7b, llama-2-13b | | EleutherAI | pythia-70m to pythia-12b, gpt-neo, gpt-j-6b | | Mistral | mistral-7b, mixtral-8x7b | | Others | phi, qwen, opt, gemma |

Содержит рекомендации по исследованию механистической интерпретируемости с использованием TransformerLens для проверки и управления внутренними компонентами трансформатора с помощью HookPoints и кэширования активации. Используйте при обратном проектировании алгоритмов модели, изучении моделей внимания или проведении экспериментов по исправлению активации. Источник: orchestra-research/ai-research-skills.

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability
Категория
</>Разработка
Проверено
Впервые замечено
2026-02-11
Обновлено
2026-03-10

Browse more skills from orchestra-research/ai-research-skills

Короткие ответы

Что такое transformer-lens-interpretability?

Содержит рекомендации по исследованию механистической интерпретируемости с использованием TransformerLens для проверки и управления внутренними компонентами трансформатора с помощью HookPoints и кэширования активации. Используйте при обратном проектировании алгоритмов модели, изучении моделей внимания или проведении экспериментов по исправлению активации. Источник: orchestra-research/ai-research-skills.

Как установить transformer-lens-interpretability?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/orchestra-research/ai-research-skills

Детали

Категория
</>Разработка
Источник
skills.sh
Впервые замечено
2026-02-11