tensorrt-llm
✓Optimiza la inferencia LLM con NVIDIA TensorRT para obtener el máximo rendimiento y la menor latencia. Úselo para la implementación de producción en GPU NVIDIA (A100/H100), cuando necesite una inferencia entre 10 y 100 veces más rápida que PyTorch, o para ofrecer modelos con cuantificación (FP8/INT4), procesamiento por lotes en vuelo y escalado de múltiples GPU.
Instalación
SKILL.md
NVIDIA's open-source library for optimizing LLM inference with state-of-the-art performance on NVIDIA GPUs.
Optimiza la inferencia LLM con NVIDIA TensorRT para obtener el máximo rendimiento y la menor latencia. Úselo para la implementación de producción en GPU NVIDIA (A100/H100), cuando necesite una inferencia entre 10 y 100 veces más rápida que PyTorch, o para ofrecer modelos con cuantificación (FP8/INT4), procesamiento por lotes en vuelo y escalado de múltiples GPU. Fuente: ovachiever/droid-tings.
Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor
Datos (listos para citar)
Campos y comandos estables para citas de IA/búsqueda.
- Comando de instalación
npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm- Fuente
- ovachiever/droid-tings
- Categoría
- </>Desarrollo
- Verificado
- ✓
- Primera vez visto
- 2026-02-01
- Actualizado
- 2026-02-18
Respuestas rápidas
¿Qué es tensorrt-llm?
Optimiza la inferencia LLM con NVIDIA TensorRT para obtener el máximo rendimiento y la menor latencia. Úselo para la implementación de producción en GPU NVIDIA (A100/H100), cuando necesite una inferencia entre 10 y 100 veces más rápida que PyTorch, o para ofrecer modelos con cuantificación (FP8/INT4), procesamiento por lotes en vuelo y escalado de múltiples GPU. Fuente: ovachiever/droid-tings.
¿Cómo instalo tensorrt-llm?
Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor
¿Dónde está el repositorio de origen?
https://github.com/ovachiever/droid-tings
Detalles
- Categoría
- </>Desarrollo
- Fuente
- skills.sh
- Primera vez visto
- 2026-02-01