NeMo Evaluator SDK evaluates LLMs across 100+ benchmarks from 18+ harnesses using containerized, reproducible evaluation with multi-backend execution (local Docker, Slurm HPC, Lepton cloud).
Run core academic benchmarks (MMLU, GSM8K, IFEval) on any OpenAI-compatible endpoint.
| lm-evaluation-harness | 60+ | MMLU, GSM8K, HellaSwag, ARC | | simple-evals | 20+ | GPQA, MATH, AIME | | bigcode-evaluation-harness | 25+ | HumanEval, MBPP, MultiPL-E | | safety-harness | 3 | Aegis, WildGuard | | garak | 1 | Security probing | | vlmevalkit | 6+ | OCRBench, ChartQA, MMMU | | bfcl | 6 | Function calling v2/v3 |
Оценивает LLM по более чем 100 тестам из более чем 18 инструментов (MMLU, HumanEval, GSM8K, безопасность, VLM) с возможностью выполнения с несколькими серверами. Используйте, когда требуется масштабируемая оценка на локальных Docker, Slurm HPC или облачных платформах. Платформа NVIDIA корпоративного уровня с контейнерной архитектурой для воспроизводимого тестирования. Источник: orchestra-research/ai-research-skills.