·nemo-evaluator
</>

nemo-evaluator

Da utilizzare durante la valutazione di LLM, l'esecuzione di benchmark come MMLU/HumanEval/GSM8K, l'impostazione di pipeline di valutazione o la richiesta di informazioni su "NeMo Evaluator", "benchmarking LLM", "valutazione del modello", "MMLU", "HumanEval", "GSM8K", "imbracature di benchmark"

30Installazioni·3Tendenza·@eyadsibai

Installazione

$npx skills add https://github.com/eyadsibai/ltk --skill nemo-evaluator

Come installare nemo-evaluator

Installa rapidamente la skill AI nemo-evaluator nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/eyadsibai/ltk --skill nemo-evaluator
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: eyadsibai/ltk.

NeMo Evaluator SDK evaluates LLMs across 100+ benchmarks from 18+ harnesses using containerized, reproducible evaluation with multi-backend execution (local Docker, Slurm HPC, Lepton cloud).

| lm-evaluation-harness | 60+ | MMLU, GSM8K, HellaSwag, ARC | | simple-evals | 20+ | GPQA, MATH, AIME | | bigcode-evaluation-harness | 25+ | HumanEval, MBPP, MultiPL-E | | safety-harness | 3 | Aegis, WildGuard | | vlmevalkit | 6+ | OCRBench, ChartQA, MMMU | | bfcl | 6 | Function calling v2/v3 |

| run | Execute evaluation with config | | status | Check job status | | ls tasks | List available benchmarks | | ls runs | List all invocations | | export | Export results (mlflow/wandb/local) | | kill | Terminate running job |

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/eyadsibai/ltk --skill nemo-evaluator
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-17
Aggiornato
2026-03-10

Browse more skills from eyadsibai/ltk

Risposte rapide

Che cos'è nemo-evaluator?

Da utilizzare durante la valutazione di LLM, l'esecuzione di benchmark come MMLU/HumanEval/GSM8K, l'impostazione di pipeline di valutazione o la richiesta di informazioni su "NeMo Evaluator", "benchmarking LLM", "valutazione del modello", "MMLU", "HumanEval", "GSM8K", "imbracature di benchmark" Fonte: eyadsibai/ltk.

Come installo nemo-evaluator?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/eyadsibai/ltk --skill nemo-evaluator Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/eyadsibai/ltk