·trace-annotation-tool
{}

trace-annotation-tool

Genera un'app Web di annotazione di traccia personalizzata per la codifica aperta durante l'analisi degli errori LLM. Da utilizzare quando l'utente desidera rivedere le tracce LLM, annotare gli errori con commenti in formato libero ed eseguire l'etichettatura qualitativa di primo passaggio (codifica aperta). Da utilizzare anche quando l'utente menziona "annota tracce", "strumento di revisione delle tracce", "strumento di codifica aperto", "etichetta tracce", "crea un'interfaccia di annotazione", "esamina gli output LLM" o desidera ispezionare manualmente le tracce della pipeline prima di creare una tassonomia degli errori. Questa competenza produce un'applicazione Web Python su misura utilizzando FastHTML, TailwindCSS e HTMX.

4Installazioni·0Tendenza·@maragudk

Installazione

$npx skills add https://github.com/maragudk/evals-skills --skill trace-annotation-tool

Come installare trace-annotation-tool

Installa rapidamente la skill AI trace-annotation-tool nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/maragudk/evals-skills --skill trace-annotation-tool
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: maragudk/evals-skills.

Generate a custom local web application for open coding of LLM traces — the first qualitative pass of error analysis in the Analyze phase of the evaluation lifecycle.

fields represent the user query, intermediate steps, tool calls, and final output.

Ask the user: "These are the default features. Do you want anything else before I generate the tool?" Then incorporate any additional requests.

Genera un'app Web di annotazione di traccia personalizzata per la codifica aperta durante l'analisi degli errori LLM. Da utilizzare quando l'utente desidera rivedere le tracce LLM, annotare gli errori con commenti in formato libero ed eseguire l'etichettatura qualitativa di primo passaggio (codifica aperta). Da utilizzare anche quando l'utente menziona "annota tracce", "strumento di revisione delle tracce", "strumento di codifica aperto", "etichetta tracce", "crea un'interfaccia di annotazione", "esamina gli output LLM" o desidera ispezionare manualmente le tracce della pipeline prima di creare una tassonomia degli errori. Questa competenza produce un'applicazione Web Python su misura utilizzando FastHTML, TailwindCSS e HTMX. Fonte: maragudk/evals-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/maragudk/evals-skills --skill trace-annotation-tool
Categoria
{}Analisi
Verificato
Prima apparizione
2026-02-25
Aggiornato
2026-03-10

Browse more skills from maragudk/evals-skills

Risposte rapide

Che cos'è trace-annotation-tool?

Genera un'app Web di annotazione di traccia personalizzata per la codifica aperta durante l'analisi degli errori LLM. Da utilizzare quando l'utente desidera rivedere le tracce LLM, annotare gli errori con commenti in formato libero ed eseguire l'etichettatura qualitativa di primo passaggio (codifica aperta). Da utilizzare anche quando l'utente menziona "annota tracce", "strumento di revisione delle tracce", "strumento di codifica aperto", "etichetta tracce", "crea un'interfaccia di annotazione", "esamina gli output LLM" o desidera ispezionare manualmente le tracce della pipeline prima di creare una tassonomia degli errori. Questa competenza produce un'applicazione Web Python su misura utilizzando FastHTML, TailwindCSS e HTMX. Fonte: maragudk/evals-skills.

Come installo trace-annotation-tool?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/maragudk/evals-skills --skill trace-annotation-tool Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/maragudk/evals-skills

Dettagli

Categoria
{}Analisi
Fonte
skills.sh
Prima apparizione
2026-02-25