·tensorrt-llm
</>

tensorrt-llm

Оптимизирует вывод LLM с помощью NVIDIA TensorRT для максимальной пропускной способности и минимальной задержки. Используйте для производственного развертывания на графических процессорах NVIDIA (A100/H100), когда вам требуется в 10–100 раз более быстрый вывод, чем PyTorch, или для обслуживания моделей с квантованием (FP8/INT4), пакетной обработкой в ​​реальном времени и масштабированием с использованием нескольких графических процессоров.

26Установки·0Тренд·@ovachiever

Установка

$npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm

Как установить tensorrt-llm

Быстро установите AI-навык tensorrt-llm в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: ovachiever/droid-tings.

NVIDIA's open-source library for optimizing LLM inference with state-of-the-art performance on NVIDIA GPUs.

Оптимизирует вывод LLM с помощью NVIDIA TensorRT для максимальной пропускной способности и минимальной задержки. Используйте для производственного развертывания на графических процессорах NVIDIA (A100/H100), когда вам требуется в 10–100 раз более быстрый вывод, чем PyTorch, или для обслуживания моделей с квантованием (FP8/INT4), пакетной обработкой в ​​реальном времени и масштабированием с использованием нескольких графических процессоров. Источник: ovachiever/droid-tings.

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Сертификация безопасности для надёжного и безопасного кода Установка в один клик с упрощённой настройкой Совместимо с Claude Code, Cursor, OpenClaw и другими

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm
Источник
ovachiever/droid-tings
Категория
</>Разработка
Проверено
Впервые замечено
2026-02-01
Обновлено
2026-03-11

Browse more skills from ovachiever/droid-tings

Короткие ответы

Что такое tensorrt-llm?

Оптимизирует вывод LLM с помощью NVIDIA TensorRT для максимальной пропускной способности и минимальной задержки. Используйте для производственного развертывания на графических процессорах NVIDIA (A100/H100), когда вам требуется в 10–100 раз более быстрый вывод, чем PyTorch, или для обслуживания моделей с квантованием (FP8/INT4), пакетной обработкой в ​​реальном времени и масштабированием с использованием нескольких графических процессоров. Источник: ovachiever/droid-tings.

Как установить tensorrt-llm?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/ovachiever/droid-tings