cuda-kernels
✓HuggingFace 디퓨저 및 트랜스포머 라이브러리를 대상으로 하는 NVIDIA GPU(H100, A100, T4)에 최적화된 CUDA 커널을 작성하고 벤치마킹하기 위한 지침을 제공합니다. LTX-Video, Stable Diffusion, LLaMA, Mistral 및 Qwen과 같은 모델을 지원합니다. 사전 컴파일된 커널을 로드하기 위해 HuggingFace Kernels Hub(get_kernel)와의 통합을 포함합니다. 커널 성능을 기본 구현과 비교하기 위한 벤치마킹 스크립트가 포함되어 있습니다.
SKILL.md
This skill provides patterns and guidance for developing optimized CUDA kernels targeting NVIDIA GPUs (H100, A100, T4) for use with HuggingFace diffusers and transformers libraries.
Load pre-compiled kernels from HuggingFace Hub (no local compilation):
| diffusers | LTX-Video, Stable Diffusion, FLUX, DiT | RMSNorm, GEGLU, RoPE, AdaLN | | transformers | LLaMA, Mistral, Qwen, Falcon | RMSNorm, Attention |
HuggingFace 디퓨저 및 트랜스포머 라이브러리를 대상으로 하는 NVIDIA GPU(H100, A100, T4)에 최적화된 CUDA 커널을 작성하고 벤치마킹하기 위한 지침을 제공합니다. LTX-Video, Stable Diffusion, LLaMA, Mistral 및 Qwen과 같은 모델을 지원합니다. 사전 컴파일된 커널을 로드하기 위해 HuggingFace Kernels Hub(get_kernel)와의 통합을 포함합니다. 커널 성능을 기본 구현과 비교하기 위한 벤치마킹 스크립트가 포함되어 있습니다. 출처: huggingface/kernels.
인용 가능한 정보
AI/검색 인용용 안정적인 필드와 명령어.
- 설치 명령어
npx skills add https://github.com/huggingface/kernels --skill cuda-kernels- 카테고리
- *크리에이티브
- 인증됨
- ✓
- 최초 등록
- 2026-02-17
- 업데이트
- 2026-02-18
빠른 답변
cuda-kernels이란?
HuggingFace 디퓨저 및 트랜스포머 라이브러리를 대상으로 하는 NVIDIA GPU(H100, A100, T4)에 최적화된 CUDA 커널을 작성하고 벤치마킹하기 위한 지침을 제공합니다. LTX-Video, Stable Diffusion, LLaMA, Mistral 및 Qwen과 같은 모델을 지원합니다. 사전 컴파일된 커널을 로드하기 위해 HuggingFace Kernels Hub(get_kernel)와의 통합을 포함합니다. 커널 성능을 기본 구현과 비교하기 위한 벤치마킹 스크립트가 포함되어 있습니다. 출처: huggingface/kernels.
cuda-kernels 설치 방법은?
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/huggingface/kernels --skill cuda-kernels 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다
소스 저장소는 어디인가요?
https://github.com/huggingface/kernels
상세
- 카테고리
- *크리에이티브
- 출처
- skills.sh
- 최초 등록
- 2026-02-17