·llm-evaluation
</>

llm-evaluation

Implementa strategie di valutazione complete per le applicazioni LLM utilizzando metriche automatizzate, feedback umano e benchmarking. Da utilizzare per testare le prestazioni LLM, misurare la qualità delle applicazioni IA o stabilire quadri di valutazione.

3.0KInstallazioni·36Tendenza·@wshobson

Installazione

$npx skills add https://github.com/wshobson/agents --skill llm-evaluation

Come installare llm-evaluation

Installa rapidamente la skill AI llm-evaluation nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/wshobson/agents --skill llm-evaluation
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: wshobson/agents.

Master comprehensive evaluation strategies for LLM applications, from automated metrics to human evaluation and A/B testing.

Implementa strategie di valutazione complete per le applicazioni LLM utilizzando metriche automatizzate, feedback umano e benchmarking. Da utilizzare per testare le prestazioni LLM, misurare la qualità delle applicazioni IA o stabilire quadri di valutazione. Fonte: wshobson/agents.

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/wshobson/agents --skill llm-evaluation Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Certificata per la sicurezza, per codice affidabile Installazione con un clic e configurazione semplificata Compatibile con Claude Code, Cursor, OpenClaw e altri

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/wshobson/agents --skill llm-evaluation
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-10

Browse more skills from wshobson/agents

Risposte rapide

Che cos'è llm-evaluation?

Implementa strategie di valutazione complete per le applicazioni LLM utilizzando metriche automatizzate, feedback umano e benchmarking. Da utilizzare per testare le prestazioni LLM, misurare la qualità delle applicazioni IA o stabilire quadri di valutazione. Fonte: wshobson/agents.

Come installo llm-evaluation?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/wshobson/agents --skill llm-evaluation Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/wshobson/agents