·tensorrt-llm

최대 처리량과 최저 대기 시간을 위해 NVIDIA TensorRT로 LLM 추론을 최적화합니다. PyTorch보다 10~100배 더 빠른 추론이 필요한 경우 NVIDIA GPU(A100/H100)의 프로덕션 배포에 사용하거나 양자화(FP8/INT4), 진행 중 일괄 처리 및 다중 GPU 확장을 통해 모델을 제공하는 데 사용하세요.

17설치·0트렌드·@orchestra-research

설치

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm

SKILL.md

NVIDIA's open-source library for optimizing LLM inference with state-of-the-art performance on NVIDIA GPUs.

최대 처리량과 최저 대기 시간을 위해 NVIDIA TensorRT로 LLM 추론을 최적화합니다. PyTorch보다 10~100배 더 빠른 추론이 필요한 경우 NVIDIA GPU(A100/H100)의 프로덕션 배포에 사용하거나 양자화(FP8/INT4), 진행 중 일괄 처리 및 다중 GPU 확장을 통해 모델을 제공하는 데 사용하세요. 출처: orchestra-research/ai-research-skills.

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다

보안 인증 완료, 신뢰할 수 있는 코드 원클릭 설치, 간편한 설정 Claude Code, Cursor 등 지원

원본 보기

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm
카테고리
</>개발 도구
인증됨
최초 등록
2026-02-11
업데이트
2026-02-18

빠른 답변

tensorrt-llm이란?

최대 처리량과 최저 대기 시간을 위해 NVIDIA TensorRT로 LLM 추론을 최적화합니다. PyTorch보다 10~100배 더 빠른 추론이 필요한 경우 NVIDIA GPU(A100/H100)의 프로덕션 배포에 사용하거나 양자화(FP8/INT4), 진행 중 일괄 처리 및 다중 GPU 확장을 통해 모델을 제공하는 데 사용하세요. 출처: orchestra-research/ai-research-skills.

tensorrt-llm 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/orchestra-research/ai-research-skills --skill tensorrt-llm 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/orchestra-research/ai-research-skills

상세

카테고리
</>개발 도구
출처
skills.sh
최초 등록
2026-02-11