·model-evaluation-benchmark
</>

model-evaluation-benchmark

Riproduzione automatizzata di benchmark completi di valutazione del modello seguendo Benchmark Suite V3. Si attiva automaticamente per il benchmarking dei modelli, la valutazione comparativa o il test delle prestazioni tra modelli AI.

73Installazioni·1Tendenza·@rysweet

Installazione

$npx skills add https://github.com/rysweet/amplihack --skill model-evaluation-benchmark

Come installare model-evaluation-benchmark

Installa rapidamente la skill AI model-evaluation-benchmark nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/rysweet/amplihack --skill model-evaluation-benchmark
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: rysweet/amplihack.

Purpose: Automated reproduction of comprehensive model evaluation benchmarks following the Benchmark Suite V3 reference implementation.

Auto-activates when: User requests model benchmarking, comparison evaluation, or performance testing between AI models in agentic workflows.

This skill orchestrates end-to-end model evaluation benchmarks that measure:

Riproduzione automatizzata di benchmark completi di valutazione del modello seguendo Benchmark Suite V3. Si attiva automaticamente per il benchmarking dei modelli, la valutazione comparativa o il test delle prestazioni tra modelli AI. Fonte: rysweet/amplihack.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/rysweet/amplihack --skill model-evaluation-benchmark
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-10

Browse more skills from rysweet/amplihack

Risposte rapide

Che cos'è model-evaluation-benchmark?

Riproduzione automatizzata di benchmark completi di valutazione del modello seguendo Benchmark Suite V3. Si attiva automaticamente per il benchmarking dei modelli, la valutazione comparativa o il test delle prestazioni tra modelli AI. Fonte: rysweet/amplihack.

Come installo model-evaluation-benchmark?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/rysweet/amplihack --skill model-evaluation-benchmark Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/rysweet/amplihack