·promptfoo-evaluation
</>

promptfoo-evaluation

Configura ed esegue la valutazione LLM utilizzando il framework Promptfoo. Da utilizzare durante l'impostazione dei test dei prompt, la creazione di configurazioni di valutazione (promptfooconfig.yaml), la scrittura di asserzioni personalizzate Python, l'implementazione di llm-rubric per LLM-as-judge o la gestione di esempi di poche riprese nei prompt. Si attiva su parole chiave come "promptfoo", "eval", "valutazione LLM", "test rapido" o "confronto modelli".

101Installazioni·0Tendenza·@daymade

Installazione

$npx skills add https://github.com/daymade/claude-code-skills --skill promptfoo-evaluation

Come installare promptfoo-evaluation

Installa rapidamente la skill AI promptfoo-evaluation nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/daymade/claude-code-skills --skill promptfoo-evaluation
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: daymade/claude-code-skills.

This skill provides guidance for configuring and running LLM evaluations using Promptfoo, an open-source CLI tool for testing and comparing LLM outputs.

Embed examples directly in prompt or use chat format with assistant messages:

Create a Python file for custom assertions (e.g., scripts/metrics.py):

Configura ed esegue la valutazione LLM utilizzando il framework Promptfoo. Da utilizzare durante l'impostazione dei test dei prompt, la creazione di configurazioni di valutazione (promptfooconfig.yaml), la scrittura di asserzioni personalizzate Python, l'implementazione di llm-rubric per LLM-as-judge o la gestione di esempi di poche riprese nei prompt. Si attiva su parole chiave come "promptfoo", "eval", "valutazione LLM", "test rapido" o "confronto modelli". Fonte: daymade/claude-code-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/daymade/claude-code-skills --skill promptfoo-evaluation
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-10

Browse more skills from daymade/claude-code-skills

Risposte rapide

Che cos'è promptfoo-evaluation?

Configura ed esegue la valutazione LLM utilizzando il framework Promptfoo. Da utilizzare durante l'impostazione dei test dei prompt, la creazione di configurazioni di valutazione (promptfooconfig.yaml), la scrittura di asserzioni personalizzate Python, l'implementazione di llm-rubric per LLM-as-judge o la gestione di esempi di poche riprese nei prompt. Si attiva su parole chiave come "promptfoo", "eval", "valutazione LLM", "test rapido" o "confronto modelli". Fonte: daymade/claude-code-skills.

Come installo promptfoo-evaluation?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/daymade/claude-code-skills --skill promptfoo-evaluation Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/daymade/claude-code-skills