·llm-evaluation
</>

llm-evaluation

Implementa strategie di valutazione complete per le applicazioni LLM utilizzando metriche automatizzate, feedback umano e benchmarking. Da utilizzare per testare le prestazioni LLM, misurare la qualità delle applicazioni IA o stabilire quadri di valutazione.

87Installazioni·2Tendenza·@sickn33

Installazione

$npx skills add https://github.com/sickn33/antigravity-awesome-skills --skill llm-evaluation

Come installare llm-evaluation

Installa rapidamente la skill AI llm-evaluation nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/sickn33/antigravity-awesome-skills --skill llm-evaluation
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: sickn33/antigravity-awesome-skills.

Master comprehensive evaluation strategies for LLM applications, from automated metrics to human evaluation and A/B testing.

Automated Metrics Fast, repeatable, scalable evaluation using computed scores.

Human Evaluation Manual assessment for quality aspects difficult to automate.

Implementa strategie di valutazione complete per le applicazioni LLM utilizzando metriche automatizzate, feedback umano e benchmarking. Da utilizzare per testare le prestazioni LLM, misurare la qualità delle applicazioni IA o stabilire quadri di valutazione. Fonte: sickn33/antigravity-awesome-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/sickn33/antigravity-awesome-skills --skill llm-evaluation
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-10

Browse more skills from sickn33/antigravity-awesome-skills

Risposte rapide

Che cos'è llm-evaluation?

Implementa strategie di valutazione complete per le applicazioni LLM utilizzando metriche automatizzate, feedback umano e benchmarking. Da utilizzare per testare le prestazioni LLM, misurare la qualità delle applicazioni IA o stabilire quadri di valutazione. Fonte: sickn33/antigravity-awesome-skills.

Come installo llm-evaluation?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/sickn33/antigravity-awesome-skills --skill llm-evaluation Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/sickn33/antigravity-awesome-skills