·tensorrt-llm
</>

tensorrt-llm

Ottimizza l'inferenza LLM con NVIDIA TensorRT per il massimo throughput e la latenza più bassa. Utilizzalo per la distribuzione in produzione su GPU NVIDIA (A100/H100), quando hai bisogno di un'inferenza 10-100 volte più veloce rispetto a PyTorch o per servire modelli con quantizzazione (FP8/INT4), batching in volo e ridimensionamento multi-GPU.

26Installazioni·0Tendenza·@ovachiever

Installazione

$npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm

Come installare tensorrt-llm

Installa rapidamente la skill AI tensorrt-llm nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: ovachiever/droid-tings.

NVIDIA's open-source library for optimizing LLM inference with state-of-the-art performance on NVIDIA GPUs.

Ottimizza l'inferenza LLM con NVIDIA TensorRT per il massimo throughput e la latenza più bassa. Utilizzalo per la distribuzione in produzione su GPU NVIDIA (A100/H100), quando hai bisogno di un'inferenza 10-100 volte più veloce rispetto a PyTorch o per servire modelli con quantizzazione (FP8/INT4), batching in volo e ridimensionamento multi-GPU. Fonte: ovachiever/droid-tings.

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Certificata per la sicurezza, per codice affidabile Installazione con un clic e configurazione semplificata Compatibile con Claude Code, Cursor, OpenClaw e altri

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-11

Browse more skills from ovachiever/droid-tings

Risposte rapide

Che cos'è tensorrt-llm?

Ottimizza l'inferenza LLM con NVIDIA TensorRT per il massimo throughput e la latenza più bassa. Utilizzalo per la distribuzione in produzione su GPU NVIDIA (A100/H100), quando hai bisogno di un'inferenza 10-100 volte più veloce rispetto a PyTorch o per servire modelli con quantizzazione (FP8/INT4), batching in volo e ridimensionamento multi-GPU. Fonte: ovachiever/droid-tings.

Come installo tensorrt-llm?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/ovachiever/droid-tings