·cuda-kernels
*

cuda-kernels

huggingface/kernels

HuggingFace 디퓨저 및 트랜스포머 라이브러리를 대상으로 하는 NVIDIA GPU(H100, A100, T4)에 최적화된 CUDA 커널을 작성하고 벤치마킹하기 위한 지침을 제공합니다. LTX-Video, Stable Diffusion, LLaMA, Mistral 및 Qwen과 같은 모델을 지원합니다. 사전 컴파일된 커널을 로드하기 위해 HuggingFace Kernels Hub(get_kernel)와의 통합을 포함합니다. 커널 성능을 기본 구현과 비교하기 위한 벤치마킹 스크립트가 포함되어 있습니다.

6설치·1트렌드·@huggingface

설치

$npx skills add https://github.com/huggingface/kernels --skill cuda-kernels

SKILL.md

This skill provides patterns and guidance for developing optimized CUDA kernels targeting NVIDIA GPUs (H100, A100, T4) for use with HuggingFace diffusers and transformers libraries.

Load pre-compiled kernels from HuggingFace Hub (no local compilation):

| diffusers | LTX-Video, Stable Diffusion, FLUX, DiT | RMSNorm, GEGLU, RoPE, AdaLN | | transformers | LLaMA, Mistral, Qwen, Falcon | RMSNorm, Attention |

HuggingFace 디퓨저 및 트랜스포머 라이브러리를 대상으로 하는 NVIDIA GPU(H100, A100, T4)에 최적화된 CUDA 커널을 작성하고 벤치마킹하기 위한 지침을 제공합니다. LTX-Video, Stable Diffusion, LLaMA, Mistral 및 Qwen과 같은 모델을 지원합니다. 사전 컴파일된 커널을 로드하기 위해 HuggingFace Kernels Hub(get_kernel)와의 통합을 포함합니다. 커널 성능을 기본 구현과 비교하기 위한 벤치마킹 스크립트가 포함되어 있습니다. 출처: huggingface/kernels.

원본 보기

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/huggingface/kernels --skill cuda-kernels
카테고리
*크리에이티브
인증됨
최초 등록
2026-02-17
업데이트
2026-02-18

빠른 답변

cuda-kernels이란?

HuggingFace 디퓨저 및 트랜스포머 라이브러리를 대상으로 하는 NVIDIA GPU(H100, A100, T4)에 최적화된 CUDA 커널을 작성하고 벤치마킹하기 위한 지침을 제공합니다. LTX-Video, Stable Diffusion, LLaMA, Mistral 및 Qwen과 같은 모델을 지원합니다. 사전 컴파일된 커널을 로드하기 위해 HuggingFace Kernels Hub(get_kernel)와의 통합을 포함합니다. 커널 성능을 기본 구현과 비교하기 위한 벤치마킹 스크립트가 포함되어 있습니다. 출처: huggingface/kernels.

cuda-kernels 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/huggingface/kernels --skill cuda-kernels 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/huggingface/kernels

상세

카테고리
*크리에이티브
출처
skills.sh
최초 등록
2026-02-17

관련 Skills

없음