·paper-digest
@

paper-digest

iamseungpil/claude-for-dslab

Generieren Sie gemeinsam nutzbare Papierzusammenfassungen für Discord/Slack/Twitter. Verwenden Sie diese Option, wenn der Benutzer Arxiv-Papier(e) bereitstellt und eine leicht verdauliche Zusammenfassung teilen möchte. Wird bei Ausdrücken wie „논문 요약“, „Papierzusammenfassung“, „Teilen Sie dieses Papier“, „디스코드에 공유“ und „Zum Teilen zusammenfassen“ ausgelöst. Erstellt erkenntnisorientierte Zusammenfassungen mit einem einzigen Absatz, die erklären, WARUM Forschung wichtig ist, und nicht nur, WAS sie bewirkt.

3Installationen·0Trend·@iamseungpil

Installation

$npx skills add https://github.com/iamseungpil/claude-for-dslab --skill paper-digest

SKILL.md

Single-paragraph summaries optimized for social sharing. Insight over information.

Transformer의 attention은 "어떤 토큰을 얼마나 볼지"를 결정하는데, 이 논문은 softmax attention을 Entropic Optimal Transport(EOT)라는 최적화 문제의 해로 재해석한다. 이 관점이 주는 통찰은: attention 계산에는 암묵적으로 "모든 위치가 동등하게 중요하다"는 uniform prior가 숨어있다는 것이다. 이게 왜 문제인가? LLM에서 첫 번째 토큰이 의미와 무관하게 엄청난 attention을 받는 attention sink 현상이 있다. Softmax는 합이 1인 확률을 출력해야 하므로, query가 마땅히 볼 토큰이 없을 때 attention을 "버릴 곳"이 필요한데, uniform prior 하에서 이를 구현하려면 첫 토큰의 key vector가 "나는 쓰레기통이야"라는...

Implication: EOT 관점은 attention의 숨겨진 가정을 드러내고, 그 가정을 바꿀 수 있다는 설계 자유도를 열어준다—attention sink는 uniform prior의 부산물이며, prior를 명시적으로 모델링하면 해결된다.

Generieren Sie gemeinsam nutzbare Papierzusammenfassungen für Discord/Slack/Twitter. Verwenden Sie diese Option, wenn der Benutzer Arxiv-Papier(e) bereitstellt und eine leicht verdauliche Zusammenfassung teilen möchte. Wird bei Ausdrücken wie „논문 요약“, „Papierzusammenfassung“, „Teilen Sie dieses Papier“, „디스코드에 공유“ und „Zum Teilen zusammenfassen“ ausgelöst. Erstellt erkenntnisorientierte Zusammenfassungen mit einem einzigen Absatz, die erklären, WARUM Forschung wichtig ist, und nicht nur, WAS sie bewirkt. Quelle: iamseungpil/claude-for-dslab.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/iamseungpil/claude-for-dslab --skill paper-digest
Kategorie
@Zusammenarbeit
Verifiziert
Erstes Auftreten
2026-02-05
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist paper-digest?

Generieren Sie gemeinsam nutzbare Papierzusammenfassungen für Discord/Slack/Twitter. Verwenden Sie diese Option, wenn der Benutzer Arxiv-Papier(e) bereitstellt und eine leicht verdauliche Zusammenfassung teilen möchte. Wird bei Ausdrücken wie „논문 요약“, „Papierzusammenfassung“, „Teilen Sie dieses Papier“, „디스코드에 공유“ und „Zum Teilen zusammenfassen“ ausgelöst. Erstellt erkenntnisorientierte Zusammenfassungen mit einem einzigen Absatz, die erklären, WARUM Forschung wichtig ist, und nicht nur, WAS sie bewirkt. Quelle: iamseungpil/claude-for-dslab.

Wie installiere ich paper-digest?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/iamseungpil/claude-for-dslab --skill paper-digest Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/iamseungpil/claude-for-dslab