·evaluation-anchor-checker
</>

evaluation-anchor-checker

Controlla e riscrivi la valutazione/dichiarazioni numeriche per garantire che contengano un contesto di protocollo minimo (attività + metrica + vincolo) ed evitino nomi di modelli sottospecificati. **Trigger**: controllo dell'ancora di valutazione, igiene delle attestazioni numeriche, numeri sottospecificati, contesto del protocollo, 评测锚点检查, 数字断言, 指标上下文. **Utilizzare quando**: prima dell'unione/perfezionamento finale o quando i revisori probabilmente contrassegnerebbero le affermazioni come sottospecificate (numeri senza attività/metrica/budget) oppure `pipeline-auditor` avvisa in caso di denominazione di modello sospetta. **Salta se**: le prove sono troppo scarse per giustificare affermazioni numeriche (percorso a monte verso C3/C4), oppure sei pre-C2 (NO PROSA). **Rete**: nessuno. **Guardrail**: non inventare numeri; non aggiungere/rimuovere/spostare chiavi di citazione; se manca il contesto del protocollo, indebolisci/rimuovi l'affermazione numerica anziché indovinare.

16Installazioni·1Tendenza·@willoscar

Installazione

$npx skills add https://github.com/willoscar/research-units-pipeline-skills --skill evaluation-anchor-checker

Come installare evaluation-anchor-checker

Installa rapidamente la skill AI evaluation-anchor-checker nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/willoscar/research-units-pipeline-skills --skill evaluation-anchor-checker
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: willoscar/research-units-pipeline-skills.

Controlla e riscrivi la valutazione/dichiarazioni numeriche per garantire che contengano un contesto di protocollo minimo (attività + metrica + vincolo) ed evitino nomi di modelli sottospecificati. **Trigger**: controllo dell'ancora di valutazione, igiene delle attestazioni numeriche, numeri sottospecificati, contesto del protocollo, 评测锚点检查, 数字断言, 指标上下文. **Utilizzare quando**: prima dell'unione/perfezionamento finale o quando i revisori probabilmente contrassegnerebbero le affermazioni come sottospecificate (numeri senza attività/metrica/budget) oppure `pipeline-auditor` avvisa in caso di denominazione di modello sospetta. **Salta se**: le prove sono troppo scarse per giustificare affermazioni numeriche (percorso a monte verso C3/C4), oppure sei pre-C2 (NO PROSA). **Rete**: nessuno. **Guardrail**: non inventare numeri; non aggiungere/rimuovere/spostare chiavi di citazione; se manca il contesto del protocollo, indebolisci/rimuovi l'affermazione numerica anziché indovinare. Fonte: willoscar/research-units-pipeline-skills.

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/willoscar/research-units-pipeline-skills --skill evaluation-anchor-checker Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/willoscar/research-units-pipeline-skills --skill evaluation-anchor-checker
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-11

Browse more skills from willoscar/research-units-pipeline-skills

Risposte rapide

Che cos'è evaluation-anchor-checker?

Controlla e riscrivi la valutazione/dichiarazioni numeriche per garantire che contengano un contesto di protocollo minimo (attività + metrica + vincolo) ed evitino nomi di modelli sottospecificati. **Trigger**: controllo dell'ancora di valutazione, igiene delle attestazioni numeriche, numeri sottospecificati, contesto del protocollo, 评测锚点检查, 数字断言, 指标上下文. **Utilizzare quando**: prima dell'unione/perfezionamento finale o quando i revisori probabilmente contrassegnerebbero le affermazioni come sottospecificate (numeri senza attività/metrica/budget) oppure `pipeline-auditor` avvisa in caso di denominazione di modello sospetta. **Salta se**: le prove sono troppo scarse per giustificare affermazioni numeriche (percorso a monte verso C3/C4), oppure sei pre-C2 (NO PROSA). **Rete**: nessuno. **Guardrail**: non inventare numeri; non aggiungere/rimuovere/spostare chiavi di citazione; se manca il contesto del protocollo, indebolisci/rimuovi l'affermazione numerica anziché indovinare. Fonte: willoscar/research-units-pipeline-skills.

Come installo evaluation-anchor-checker?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/willoscar/research-units-pipeline-skills --skill evaluation-anchor-checker Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/willoscar/research-units-pipeline-skills