·developer-assessment-evaluator
</>

developer-assessment-evaluator

Questa abilità dovrebbe essere utilizzata quando l'utente chiede di "valutare una valutazione di codifica", "revisionare un progetto da portare a casa", "valutare un colloquio tecnico", "analizzare l'invio di una sfida di codifica", "rilevare curiosità sovraindicizzate" o "fornire feedback sulla valutazione". Valuta le valutazioni ingegneristiche rispetto alle rubriche rilevando anti-modelli comuni come l'eccessiva attenzione alle curiosità rispetto alla capacità di risoluzione dei problemi.

3Installazioni·0Tendenza·@clous-ai

Installazione

$npx skills add https://github.com/clous-ai/agents --skill developer-assessment-evaluator

Come installare developer-assessment-evaluator

Installa rapidamente la skill AI developer-assessment-evaluator nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/clous-ai/agents --skill developer-assessment-evaluator
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: clous-ai/agents.

Evaluate technical assessments (take-homes, live coding, system design) using structured rubrics while detecting over-indexing on trivia vs. core engineering skills.

Anti-Pattern Detection: If candidate knows optimal algorithm immediately → may be memorized, probe deeper with follow-up

Example - Bad Assessment: "Implement Dijkstra's algorithm from memory in 45 minutes" → Tests memorization, not problem-solving

Questa abilità dovrebbe essere utilizzata quando l'utente chiede di "valutare una valutazione di codifica", "revisionare un progetto da portare a casa", "valutare un colloquio tecnico", "analizzare l'invio di una sfida di codifica", "rilevare curiosità sovraindicizzate" o "fornire feedback sulla valutazione". Valuta le valutazioni ingegneristiche rispetto alle rubriche rilevando anti-modelli comuni come l'eccessiva attenzione alle curiosità rispetto alla capacità di risoluzione dei problemi. Fonte: clous-ai/agents.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/clous-ai/agents --skill developer-assessment-evaluator
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-10

Browse more skills from clous-ai/agents

Risposte rapide

Che cos'è developer-assessment-evaluator?

Questa abilità dovrebbe essere utilizzata quando l'utente chiede di "valutare una valutazione di codifica", "revisionare un progetto da portare a casa", "valutare un colloquio tecnico", "analizzare l'invio di una sfida di codifica", "rilevare curiosità sovraindicizzate" o "fornire feedback sulla valutazione". Valuta le valutazioni ingegneristiche rispetto alle rubriche rilevando anti-modelli comuni come l'eccessiva attenzione alle curiosità rispetto alla capacità di risoluzione dei problemi. Fonte: clous-ai/agents.

Come installo developer-assessment-evaluator?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/clous-ai/agents --skill developer-assessment-evaluator Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/clous-ai/agents