·tensorrt-llm
</>

tensorrt-llm

ovachiever/droid-tings

使用 NVIDIA TensorRT 优化 LLM 推理,以实现最大吞吐量和最低延迟。当您需要比 PyTorch 快 10-100 倍的推理速度时,可用于 NVIDIA GPU (A100/H100) 上的生产部署,或者用于通过量化 (FP8/INT4)、动态批处理和多 GPU 扩展来服务模型。

21安装·0热度·@ovachiever

安装

$npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm

SKILL.md

NVIDIA's open-source library for optimizing LLM inference with state-of-the-art performance on NVIDIA GPUs.

使用 NVIDIA TensorRT 优化 LLM 推理,以实现最大吞吐量和最低延迟。当您需要比 PyTorch 快 10-100 倍的推理速度时,可用于 NVIDIA GPU (A100/H100) 上的生产部署,或者用于通过量化 (FP8/INT4)、动态批处理和多 GPU 扩展来服务模型。 来源:ovachiever/droid-tings。

打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code 或 Cursor 中使用

安全认证,代码可靠安全 一键安装,配置简单 兼容 Claude Code、Cursor 等工具

查看原文

可引用信息

为搜索与 AI 引用准备的稳定字段与命令。

安装命令
npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm
分类
</>开发工具
认证
收录时间
2026-02-01
更新时间
2026-02-18

快速解答

什么是 tensorrt-llm?

使用 NVIDIA TensorRT 优化 LLM 推理,以实现最大吞吐量和最低延迟。当您需要比 PyTorch 快 10-100 倍的推理速度时,可用于 NVIDIA GPU (A100/H100) 上的生产部署,或者用于通过量化 (FP8/INT4)、动态批处理和多 GPU 扩展来服务模型。 来源:ovachiever/droid-tings。

如何安装 tensorrt-llm?

打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code 或 Cursor 中使用

这个 Skill 的源码在哪?

https://github.com/ovachiever/droid-tings