cuda-kernels
✓HuggingFace ディフューザーおよびトランスフォーマー ライブラリを対象とした、NVIDIA GPU (H100、A100、T4) 用に最適化された CUDA カーネルの作成とベンチマークに関するガイダンスを提供します。 LTX-Video、Stable Diffusion、LLaMA、Mistral、Qwen などのモデルをサポートします。プリコンパイルされたカーネルをロードするための HuggingFace Kernels Hub (get_kernel) との統合が含まれています。カーネルのパフォーマンスをベースライン実装と比較するためのベンチマーク スクリプトが含まれています。
SKILL.md
This skill provides patterns and guidance for developing optimized CUDA kernels targeting NVIDIA GPUs (H100, A100, T4) for use with HuggingFace diffusers and transformers libraries.
Load pre-compiled kernels from HuggingFace Hub (no local compilation):
| diffusers | LTX-Video, Stable Diffusion, FLUX, DiT | RMSNorm, GEGLU, RoPE, AdaLN | | transformers | LLaMA, Mistral, Qwen, Falcon | RMSNorm, Attention |
HuggingFace ディフューザーおよびトランスフォーマー ライブラリを対象とした、NVIDIA GPU (H100、A100、T4) 用に最適化された CUDA カーネルの作成とベンチマークに関するガイダンスを提供します。 LTX-Video、Stable Diffusion、LLaMA、Mistral、Qwen などのモデルをサポートします。プリコンパイルされたカーネルをロードするための HuggingFace Kernels Hub (get_kernel) との統合が含まれています。カーネルのパフォーマンスをベースライン実装と比較するためのベンチマーク スクリプトが含まれています。 ソース: huggingface/kernels。
引用可能な情報
AI/検索での引用用の安定したフィールドとコマンド。
- インストールコマンド
npx skills add https://github.com/huggingface/kernels --skill cuda-kernels- カテゴリ
- *クリエイティブ
- 認証済み
- ✓
- 初回登録
- 2026-02-17
- 更新日
- 2026-02-18
クイックアンサー
cuda-kernels とは?
HuggingFace ディフューザーおよびトランスフォーマー ライブラリを対象とした、NVIDIA GPU (H100、A100、T4) 用に最適化された CUDA カーネルの作成とベンチマークに関するガイダンスを提供します。 LTX-Video、Stable Diffusion、LLaMA、Mistral、Qwen などのモデルをサポートします。プリコンパイルされたカーネルをロードするための HuggingFace Kernels Hub (get_kernel) との統合が含まれています。カーネルのパフォーマンスをベースライン実装と比較するためのベンチマーク スクリプトが含まれています。 ソース: huggingface/kernels。
cuda-kernels のインストール方法は?
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/huggingface/kernels --skill cuda-kernels インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります
ソースリポジトリはどこですか?
https://github.com/huggingface/kernels
詳細
- カテゴリ
- *クリエイティブ
- ソース
- skills.sh
- 初回登録
- 2026-02-17