tensorrt-llm
✓Optimise l'inférence LLM avec NVIDIA TensorRT pour un débit maximal et une latence la plus faible. À utiliser pour le déploiement en production sur des GPU NVIDIA (A100/H100), lorsque vous avez besoin d'une inférence 10 à 100 fois plus rapide que PyTorch, ou pour servir des modèles avec quantification (FP8/INT4), traitement par lots en vol et mise à l'échelle multi-GPU.
Installation
SKILL.md
NVIDIA's open-source library for optimizing LLM inference with state-of-the-art performance on NVIDIA GPUs.
Optimise l'inférence LLM avec NVIDIA TensorRT pour un débit maximal et une latence la plus faible. À utiliser pour le déploiement en production sur des GPU NVIDIA (A100/H100), lorsque vous avez besoin d'une inférence 10 à 100 fois plus rapide que PyTorch, ou pour servir des modèles avec quantification (FP8/INT4), traitement par lots en vol et mise à l'échelle multi-GPU. Source : orchestra-research/ai-research-skills.
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm- Catégorie
- </>Développement
- Vérifié
- ✓
- Première apparition
- 2026-02-11
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que tensorrt-llm ?
Optimise l'inférence LLM avec NVIDIA TensorRT pour un débit maximal et une latence la plus faible. À utiliser pour le déploiement en production sur des GPU NVIDIA (A100/H100), lorsque vous avez besoin d'une inférence 10 à 100 fois plus rapide que PyTorch, ou pour servir des modèles avec quantification (FP8/INT4), traitement par lots en vol et mise à l'échelle multi-GPU. Source : orchestra-research/ai-research-skills.
Comment installer tensorrt-llm ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/orchestra-research/ai-research-skills
Détails
- Catégorie
- </>Développement
- Source
- skills.sh
- Première apparition
- 2026-02-11