·trace-annotation-tool
{}

trace-annotation-tool

Générez une application Web d'annotation de trace personnalisée pour le codage ouvert lors de l'analyse des erreurs LLM. À utiliser lorsque l'utilisateur souhaite examiner les traces LLM, annoter les échecs avec des commentaires de forme libre et effectuer un étiquetage qualitatif de premier passage (codage ouvert). À utiliser également lorsque l'utilisateur mentionne « annoter les traces », « l'outil de révision des traces », « l'outil de codage ouvert », « les traces d'étiquettes », « créer une interface d'annotation », « examiner les sorties LLM » ou souhaite inspecter manuellement les traces du pipeline avant de créer une taxonomie d'échec. Cette compétence produit une application Web Python sur mesure utilisant FastHTML, TailwindCSS et HTMX.

4Installations·0Tendance·@maragudk

Installation

$npx skills add https://github.com/maragudk/evals-skills --skill trace-annotation-tool

Comment installer trace-annotation-tool

Installez rapidement le skill IA trace-annotation-tool dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/maragudk/evals-skills --skill trace-annotation-tool
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : maragudk/evals-skills.

Generate a custom local web application for open coding of LLM traces — the first qualitative pass of error analysis in the Analyze phase of the evaluation lifecycle.

fields represent the user query, intermediate steps, tool calls, and final output.

Ask the user: "These are the default features. Do you want anything else before I generate the tool?" Then incorporate any additional requests.

Générez une application Web d'annotation de trace personnalisée pour le codage ouvert lors de l'analyse des erreurs LLM. À utiliser lorsque l'utilisateur souhaite examiner les traces LLM, annoter les échecs avec des commentaires de forme libre et effectuer un étiquetage qualitatif de premier passage (codage ouvert). À utiliser également lorsque l'utilisateur mentionne « annoter les traces », « l'outil de révision des traces », « l'outil de codage ouvert », « les traces d'étiquettes », « créer une interface d'annotation », « examiner les sorties LLM » ou souhaite inspecter manuellement les traces du pipeline avant de créer une taxonomie d'échec. Cette compétence produit une application Web Python sur mesure utilisant FastHTML, TailwindCSS et HTMX. Source : maragudk/evals-skills.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/maragudk/evals-skills --skill trace-annotation-tool
Catégorie
{}Analyse de Données
Vérifié
Première apparition
2026-02-25
Mis à jour
2026-03-11

Browse more skills from maragudk/evals-skills

Réponses rapides

Qu'est-ce que trace-annotation-tool ?

Générez une application Web d'annotation de trace personnalisée pour le codage ouvert lors de l'analyse des erreurs LLM. À utiliser lorsque l'utilisateur souhaite examiner les traces LLM, annoter les échecs avec des commentaires de forme libre et effectuer un étiquetage qualitatif de premier passage (codage ouvert). À utiliser également lorsque l'utilisateur mentionne « annoter les traces », « l'outil de révision des traces », « l'outil de codage ouvert », « les traces d'étiquettes », « créer une interface d'annotation », « examiner les sorties LLM » ou souhaite inspecter manuellement les traces du pipeline avant de créer une taxonomie d'échec. Cette compétence produit une application Web Python sur mesure utilisant FastHTML, TailwindCSS et HTMX. Source : maragudk/evals-skills.

Comment installer trace-annotation-tool ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/maragudk/evals-skills --skill trace-annotation-tool Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/maragudk/evals-skills

Détails

Catégorie
{}Analyse de Données
Source
skills.sh
Première apparition
2026-02-25