·paper-digest
@

paper-digest

iamseungpil/claude-for-dslab

Genere resúmenes en papel que se puedan compartir para Discord/Slack/Twitter. Úselo cuando el usuario proporciona documentos arxiv y desea compartir un resumen digerible. Activadores de frases como "논문 요약", "resumen del artículo", "compartir este artículo", "디스코드에 공유", "resumir para compartir". Produce resúmenes de un solo párrafo centrados en conocimientos que explican POR QUÉ es importante la investigación, no solo QUÉ hace.

3Instalaciones·1Tendencia·@iamseungpil

Instalación

$npx skills add https://github.com/iamseungpil/claude-for-dslab --skill paper-digest

SKILL.md

Single-paragraph summaries optimized for social sharing. Insight over information.

Transformer의 attention은 "어떤 토큰을 얼마나 볼지"를 결정하는데, 이 논문은 softmax attention을 Entropic Optimal Transport(EOT)라는 최적화 문제의 해로 재해석한다. 이 관점이 주는 통찰은: attention 계산에는 암묵적으로 "모든 위치가 동등하게 중요하다"는 uniform prior가 숨어있다는 것이다. 이게 왜 문제인가? LLM에서 첫 번째 토큰이 의미와 무관하게 엄청난 attention을 받는 attention sink 현상이 있다. Softmax는 합이 1인 확률을 출력해야 하므로, query가 마땅히 볼 토큰이 없을 때 attention을 "버릴 곳"이 필요한데, uniform prior 하에서 이를 구현하려면 첫 토큰의 key vector가 "나는 쓰레기통이야"라는...

Implication: EOT 관점은 attention의 숨겨진 가정을 드러내고, 그 가정을 바꿀 수 있다는 설계 자유도를 열어준다—attention sink는 uniform prior의 부산물이며, prior를 명시적으로 모델링하면 해결된다.

Genere resúmenes en papel que se puedan compartir para Discord/Slack/Twitter. Úselo cuando el usuario proporciona documentos arxiv y desea compartir un resumen digerible. Activadores de frases como "논문 요약", "resumen del artículo", "compartir este artículo", "디스코드에 공유", "resumir para compartir". Produce resúmenes de un solo párrafo centrados en conocimientos que explican POR QUÉ es importante la investigación, no solo QUÉ hace. Fuente: iamseungpil/claude-for-dslab.

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/iamseungpil/claude-for-dslab --skill paper-digest
Categoría
@Colaboración
Verificado
Primera vez visto
2026-02-05
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es paper-digest?

Genere resúmenes en papel que se puedan compartir para Discord/Slack/Twitter. Úselo cuando el usuario proporciona documentos arxiv y desea compartir un resumen digerible. Activadores de frases como "논문 요약", "resumen del artículo", "compartir este artículo", "디스코드에 공유", "resumir para compartir". Produce resúmenes de un solo párrafo centrados en conocimientos que explican POR QUÉ es importante la investigación, no solo QUÉ hace. Fuente: iamseungpil/claude-for-dslab.

¿Cómo instalo paper-digest?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/iamseungpil/claude-for-dslab --skill paper-digest Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/iamseungpil/claude-for-dslab