·llm-judge
</>

llm-judge

Metodologia LLM-as-judge per confrontare le implementazioni del codice tra repository. Valuta le implementazioni in termini di funzionalità, sicurezza, qualità dei test, overengineering e codice morto utilizzando rubriche ponderate. Utilizzato dal comando /beagle:llm-judge.

51Installazioni·1Tendenza·@existential-birds

Installazione

$npx skills add https://github.com/existential-birds/beagle --skill llm-judge

Come installare llm-judge

Installa rapidamente la skill AI llm-judge nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/existential-birds/beagle --skill llm-judge
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: existential-birds/beagle.

Compare code implementations across 2+ repositories using structured evaluation.

| references/fact-schema.md | JSON schema for Phase 1 facts | | references/scoring-rubrics.md | Detailed rubrics for each dimension | | references/repo-agent.md | Instructions for Phase 1 agents | | references/judge-agents.md | Instructions for Phase 2 judges |

| Functionality | 30% | Spec compliance, test pass rate | | Security | 25% | Vulnerabilities, security patterns | | Test Quality | 20% | Coverage, DRY, mock boundaries | | Overengineering | 15% | Unnecessary complexity | | Dead Code | 10% | Unused code, TODOs |

Metodologia LLM-as-judge per confrontare le implementazioni del codice tra repository. Valuta le implementazioni in termini di funzionalità, sicurezza, qualità dei test, overengineering e codice morto utilizzando rubriche ponderate. Utilizzato dal comando /beagle:llm-judge. Fonte: existential-birds/beagle.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/existential-birds/beagle --skill llm-judge
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-10

Browse more skills from existential-birds/beagle

Risposte rapide

Che cos'è llm-judge?

Metodologia LLM-as-judge per confrontare le implementazioni del codice tra repository. Valuta le implementazioni in termini di funzionalità, sicurezza, qualità dei test, overengineering e codice morto utilizzando rubriche ponderate. Utilizzato dal comando /beagle:llm-judge. Fonte: existential-birds/beagle.

Come installo llm-judge?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/existential-birds/beagle --skill llm-judge Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/existential-birds/beagle