·transformer-lens-interpretability
</>

transformer-lens-interpretability

يوفر إرشادات لأبحاث قابلية التفسير الآلي باستخدام TransformerLens لفحص الأجزاء الداخلية للمحول ومعالجتها عبر HookPoints والتخزين المؤقت للتنشيط. يُستخدم عند إجراء هندسة عكسية لخوارزميات النماذج أو دراسة أنماط الانتباه أو إجراء تجارب تصحيح التنشيط.

39التثبيتات·4الرائج·@orchestra-research

التثبيت

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability

كيفية تثبيت transformer-lens-interpretability

ثبّت مهارة الذكاء الاصطناعي transformer-lens-interpretability بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: orchestra-research/ai-research-skills.

TransformerLens is the de facto standard library for mechanistic interpretability research on GPT-style language models. Created by Neel Nanda and maintained by Bryce Meyer, it provides clean interfaces to inspect and manipulate model internals via HookPoints on every activation.

The main class that wraps transformer models with HookPoints on every activation:

| GPT-2 | gpt2, gpt2-medium, gpt2-large, gpt2-xl | | LLaMA | llama-7b, llama-13b, llama-2-7b, llama-2-13b | | EleutherAI | pythia-70m to pythia-12b, gpt-neo, gpt-j-6b | | Mistral | mistral-7b, mixtral-8x7b | | Others | phi, qwen, opt, gemma |

يوفر إرشادات لأبحاث قابلية التفسير الآلي باستخدام TransformerLens لفحص الأجزاء الداخلية للمحول ومعالجتها عبر HookPoints والتخزين المؤقت للتنشيط. يُستخدم عند إجراء هندسة عكسية لخوارزميات النماذج أو دراسة أنماط الانتباه أو إجراء تجارب تصحيح التنشيط. المصدر: orchestra-research/ai-research-skills.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-11
آخر تحديث
2026-03-11

Browse more skills from orchestra-research/ai-research-skills

إجابات سريعة

ما هي transformer-lens-interpretability؟

يوفر إرشادات لأبحاث قابلية التفسير الآلي باستخدام TransformerLens لفحص الأجزاء الداخلية للمحول ومعالجتها عبر HookPoints والتخزين المؤقت للتنشيط. يُستخدم عند إجراء هندسة عكسية لخوارزميات النماذج أو دراسة أنماط الانتباه أو إجراء تجارب تصحيح التنشيط. المصدر: orchestra-research/ai-research-skills.

كيف أثبّت transformer-lens-interpretability؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/orchestra-research/ai-research-skills --skill transformer-lens-interpretability بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/orchestra-research/ai-research-skills

التفاصيل

الفئة
</>أدوات التطوير
المصدر
skills.sh
أول ظهور
2026-02-11