tensorrt-llm
✓Optimiert die LLM-Inferenz mit NVIDIA TensorRT für maximalen Durchsatz und niedrigste Latenz. Verwenden Sie es für die Produktionsbereitstellung auf NVIDIA-GPUs (A100/H100), wenn Sie eine 10–100-mal schnellere Inferenz als PyTorch benötigen, oder für die Bereitstellung von Modellen mit Quantisierung (FP8/INT4), In-Flight-Batching und Multi-GPU-Skalierung.
Installation
SKILL.md
NVIDIA's open-source library for optimizing LLM inference with state-of-the-art performance on NVIDIA GPUs.
Optimiert die LLM-Inferenz mit NVIDIA TensorRT für maximalen Durchsatz und niedrigste Latenz. Verwenden Sie es für die Produktionsbereitstellung auf NVIDIA-GPUs (A100/H100), wenn Sie eine 10–100-mal schnellere Inferenz als PyTorch benötigen, oder für die Bereitstellung von Modellen mit Quantisierung (FP8/INT4), In-Flight-Batching und Multi-GPU-Skalierung. Quelle: orchestra-research/ai-research-skills.
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Sicherheitszertifiziert für sicheren, zuverlässigen Code Ein-Klick-Installation und vereinfachte Einrichtung Kompatibel mit Claude Code, Cursor und mehr
Fakten (zitierbereit)
Stabile Felder und Befehle für KI/Such-Zitate.
- Installationsbefehl
npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm- Kategorie
- </>Entwicklung
- Verifiziert
- ✓
- Erstes Auftreten
- 2026-02-11
- Aktualisiert
- 2026-02-18
Schnelle Antworten
Was ist tensorrt-llm?
Optimiert die LLM-Inferenz mit NVIDIA TensorRT für maximalen Durchsatz und niedrigste Latenz. Verwenden Sie es für die Produktionsbereitstellung auf NVIDIA-GPUs (A100/H100), wenn Sie eine 10–100-mal schnellere Inferenz als PyTorch benötigen, oder für die Bereitstellung von Modellen mit Quantisierung (FP8/INT4), In-Flight-Batching und Multi-GPU-Skalierung. Quelle: orchestra-research/ai-research-skills.
Wie installiere ich tensorrt-llm?
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Wo ist das Quell-Repository?
https://github.com/orchestra-research/ai-research-skills
Details
- Kategorie
- </>Entwicklung
- Quelle
- skills.sh
- Erstes Auftreten
- 2026-02-11