tensorrt-llm
✓使用 NVIDIA TensorRT 優化 LLM 推理,以實現最大吞吐量和最低延遲。當您需要比 PyTorch 快 10-100 倍的推理速度時,可用於 NVIDIA GPU (A100/H100) 上的生產部署,或者用於通過量化 (FP8/INT4)、動態批處理和多 GPU 擴展來服務模型。
SKILL.md
NVIDIA's open-source library for optimizing LLM inference with state-of-the-art performance on NVIDIA GPUs.
使用 NVIDIA TensorRT 優化 LLM 推理,以實現最大吞吐量和最低延遲。當您需要比 PyTorch 快 10-100 倍的推理速度時,可用於 NVIDIA GPU (A100/H100) 上的生產部署,或者用於通過量化 (FP8/INT4)、動態批處理和多 GPU 擴展來服務模型。 來源:ovachiever/droid-tings。
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code 或 Cursor 中使用
安全認證,程式碼可靠安全 一鍵安裝,設定簡單 相容 Claude Code、Cursor 等工具
可引用資訊
為搜尋與 AI 引用準備的穩定欄位與指令。
- 安裝指令
npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm- 分類
- </>開發工具
- 認證
- ✓
- 收錄時間
- 2026-02-01
- 更新時間
- 2026-02-18
快速解答
什麼是 tensorrt-llm?
使用 NVIDIA TensorRT 優化 LLM 推理,以實現最大吞吐量和最低延遲。當您需要比 PyTorch 快 10-100 倍的推理速度時,可用於 NVIDIA GPU (A100/H100) 上的生產部署,或者用於通過量化 (FP8/INT4)、動態批處理和多 GPU 擴展來服務模型。 來源:ovachiever/droid-tings。
如何安裝 tensorrt-llm?
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code 或 Cursor 中使用
這個 Skill 的原始碼在哪?
https://github.com/ovachiever/droid-tings
詳情
- 分類
- </>開發工具
- 來源
- skills.sh
- 收錄時間
- 2026-02-01