·tensorrt-llm

Optimise l'inférence LLM avec NVIDIA TensorRT pour un débit maximal et une latence la plus faible. À utiliser pour le déploiement en production sur des GPU NVIDIA (A100/H100), lorsque vous avez besoin d'une inférence 10 à 100 fois plus rapide que PyTorch, ou pour servir des modèles avec quantification (FP8/INT4), traitement par lots en vol et mise à l'échelle multi-GPU.

17Installations·0Tendance·@orchestra-research

Installation

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm

SKILL.md

NVIDIA's open-source library for optimizing LLM inference with state-of-the-art performance on NVIDIA GPUs.

Optimise l'inférence LLM avec NVIDIA TensorRT pour un débit maximal et une latence la plus faible. À utiliser pour le déploiement en production sur des GPU NVIDIA (A100/H100), lorsque vous avez besoin d'une inférence 10 à 100 fois plus rapide que PyTorch, ou pour servir des modèles avec quantification (FP8/INT4), traitement par lots en vol et mise à l'échelle multi-GPU. Source : orchestra-research/ai-research-skills.

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-11
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que tensorrt-llm ?

Optimise l'inférence LLM avec NVIDIA TensorRT pour un débit maximal et une latence la plus faible. À utiliser pour le déploiement en production sur des GPU NVIDIA (A100/H100), lorsque vous avez besoin d'une inférence 10 à 100 fois plus rapide que PyTorch, ou pour servir des modèles avec quantification (FP8/INT4), traitement par lots en vol et mise à l'échelle multi-GPU. Source : orchestra-research/ai-research-skills.

Comment installer tensorrt-llm ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/orchestra-research/ai-research-skills