·tensorrt-llm

Optimiza la inferencia LLM con NVIDIA TensorRT para obtener el máximo rendimiento y la menor latencia. Úselo para la implementación de producción en GPU NVIDIA (A100/H100), cuando necesite una inferencia entre 10 y 100 veces más rápida que PyTorch, o para ofrecer modelos con cuantificación (FP8/INT4), procesamiento por lotes en vuelo y escalado de múltiples GPU.

17Instalaciones·0Tendencia·@orchestra-research

Instalación

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm

SKILL.md

NVIDIA's open-source library for optimizing LLM inference with state-of-the-art performance on NVIDIA GPUs.

Optimiza la inferencia LLM con NVIDIA TensorRT para obtener el máximo rendimiento y la menor latencia. Úselo para la implementación de producción en GPU NVIDIA (A100/H100), cuando necesite una inferencia entre 10 y 100 veces más rápida que PyTorch, o para ofrecer modelos con cuantificación (FP8/INT4), procesamiento por lotes en vuelo y escalado de múltiples GPU. Fuente: orchestra-research/ai-research-skills.

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-11
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es tensorrt-llm?

Optimiza la inferencia LLM con NVIDIA TensorRT para obtener el máximo rendimiento y la menor latencia. Úselo para la implementación de producción en GPU NVIDIA (A100/H100), cuando necesite una inferencia entre 10 y 100 veces más rápida que PyTorch, o para ofrecer modelos con cuantificación (FP8/INT4), procesamiento por lotes en vuelo y escalado de múltiples GPU. Fuente: orchestra-research/ai-research-skills.

¿Cómo instalo tensorrt-llm?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/orchestra-research/ai-research-skills