tensorrt-llm
✓최대 처리량과 최저 대기 시간을 위해 NVIDIA TensorRT로 LLM 추론을 최적화합니다. PyTorch보다 10~100배 더 빠른 추론이 필요한 경우 NVIDIA GPU(A100/H100)의 프로덕션 배포에 사용하거나 양자화(FP8/INT4), 진행 중 일괄 처리 및 다중 GPU 확장을 통해 모델을 제공하는 데 사용하세요.
SKILL.md
NVIDIA's open-source library for optimizing LLM inference with state-of-the-art performance on NVIDIA GPUs.
최대 처리량과 최저 대기 시간을 위해 NVIDIA TensorRT로 LLM 추론을 최적화합니다. PyTorch보다 10~100배 더 빠른 추론이 필요한 경우 NVIDIA GPU(A100/H100)의 프로덕션 배포에 사용하거나 양자화(FP8/INT4), 진행 중 일괄 처리 및 다중 GPU 확장을 통해 모델을 제공하는 데 사용하세요. 출처: ovachiever/droid-tings.
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다
보안 인증 완료, 신뢰할 수 있는 코드 원클릭 설치, 간편한 설정 Claude Code, Cursor 등 지원
인용 가능한 정보
AI/검색 인용용 안정적인 필드와 명령어.
- 설치 명령어
npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm- 카테고리
- </>개발 도구
- 인증됨
- ✓
- 최초 등록
- 2026-02-01
- 업데이트
- 2026-02-18
빠른 답변
tensorrt-llm이란?
최대 처리량과 최저 대기 시간을 위해 NVIDIA TensorRT로 LLM 추론을 최적화합니다. PyTorch보다 10~100배 더 빠른 추론이 필요한 경우 NVIDIA GPU(A100/H100)의 프로덕션 배포에 사용하거나 양자화(FP8/INT4), 진행 중 일괄 처리 및 다중 GPU 확장을 통해 모델을 제공하는 데 사용하세요. 출처: ovachiever/droid-tings.
tensorrt-llm 설치 방법은?
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/ovachiever/droid-tings --skill tensorrt-llm 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다
소스 저장소는 어디인가요?
https://github.com/ovachiever/droid-tings
상세
- 카테고리
- </>개발 도구
- 출처
- skills.sh
- 최초 등록
- 2026-02-01