·llm-evaluation
</>

llm-evaluation

LLM richiede test, valutazione e controlli di qualità CI/CD utilizzando Promptfoo. Invocare quando: - Impostazione di una valutazione tempestiva o di test di regressione - Integrazione dei test LLM nelle pipeline CI/CD - Configurazione dei test di sicurezza (red teaming, jailbreak) - Confronto delle prestazioni del prompt o del modello - Creazione di suite di valutazione per RAG, fattualità o sicurezza Parole chiave: promptfoo, valutazione llm, test tempestivo, team rosso, CI/CD, test di regressione

23Installazioni·0Tendenza·@phrazzld

Installazione

$npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation

Come installare llm-evaluation

Installa rapidamente la skill AI llm-evaluation nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: phrazzld/claude-config.

Test prompts, models, and RAG systems with automated evaluation and CI/CD integration.

LLM outputs are non-deterministic. "It looks good" isn't testing. You need:

| Functional | Does it work? | contains, equals, is-json | | Semantic | Is it correct? | similar, llm-rubric, factuality | | Performance | Is it fast/cheap? | cost, latency | | Security | Is it safe? | redteam, moderation, pii-detection |

LLM richiede test, valutazione e controlli di qualità CI/CD utilizzando Promptfoo. Invocare quando: - Impostazione di una valutazione tempestiva o di test di regressione - Integrazione dei test LLM nelle pipeline CI/CD - Configurazione dei test di sicurezza (red teaming, jailbreak) - Confronto delle prestazioni del prompt o del modello - Creazione di suite di valutazione per RAG, fattualità o sicurezza Parole chiave: promptfoo, valutazione llm, test tempestivo, team rosso, CI/CD, test di regressione Fonte: phrazzld/claude-config.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-10

Browse more skills from phrazzld/claude-config

Risposte rapide

Che cos'è llm-evaluation?

LLM richiede test, valutazione e controlli di qualità CI/CD utilizzando Promptfoo. Invocare quando: - Impostazione di una valutazione tempestiva o di test di regressione - Integrazione dei test LLM nelle pipeline CI/CD - Configurazione dei test di sicurezza (red teaming, jailbreak) - Confronto delle prestazioni del prompt o del modello - Creazione di suite di valutazione per RAG, fattualità o sicurezza Parole chiave: promptfoo, valutazione llm, test tempestivo, team rosso, CI/CD, test di regressione Fonte: phrazzld/claude-config.

Come installo llm-evaluation?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/phrazzld/claude-config