·tensorrt-llm
</>

tensorrt-llm

ovachiever/droid-tings

Optimiert die LLM-Inferenz mit NVIDIA TensorRT für maximalen Durchsatz und niedrigste Latenz. Verwenden Sie es für die Produktionsbereitstellung auf NVIDIA-GPUs (A100/H100), wenn Sie eine 10–100-mal schnellere Inferenz als PyTorch benötigen, oder für die Bereitstellung von Modellen mit Quantisierung (FP8/INT4), In-Flight-Batching und Multi-GPU-Skalierung.

21Installationen·0Trend·@ovachiever

Installation

$npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm

SKILL.md

NVIDIA's open-source library for optimizing LLM inference with state-of-the-art performance on NVIDIA GPUs.

Optimiert die LLM-Inferenz mit NVIDIA TensorRT für maximalen Durchsatz und niedrigste Latenz. Verwenden Sie es für die Produktionsbereitstellung auf NVIDIA-GPUs (A100/H100), wenn Sie eine 10–100-mal schnellere Inferenz als PyTorch benötigen, oder für die Bereitstellung von Modellen mit Quantisierung (FP8/INT4), In-Flight-Batching und Multi-GPU-Skalierung. Quelle: ovachiever/droid-tings.

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Sicherheitszertifiziert für sicheren, zuverlässigen Code Ein-Klick-Installation und vereinfachte Einrichtung Kompatibel mit Claude Code, Cursor und mehr

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-01
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist tensorrt-llm?

Optimiert die LLM-Inferenz mit NVIDIA TensorRT für maximalen Durchsatz und niedrigste Latenz. Verwenden Sie es für die Produktionsbereitstellung auf NVIDIA-GPUs (A100/H100), wenn Sie eine 10–100-mal schnellere Inferenz als PyTorch benötigen, oder für die Bereitstellung von Modellen mit Quantisierung (FP8/INT4), In-Flight-Batching und Multi-GPU-Skalierung. Quelle: ovachiever/droid-tings.

Wie installiere ich tensorrt-llm?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/ovachiever/droid-tings