·cuda-kernels
*

cuda-kernels

huggingface/kernels

提供针对针对 HuggingFace 扩散器和变压器库的 NVIDIA GPU(H100、A100、T4)编写和基准测试优化 CUDA 内核的指南。支持 LTX-Video、Stable Diffusion、LLaMA、Mistral 和 Qwen 等模型。包括与 HuggingFace Kernels Hub (get_kernel) 的集成,用于加载预编译的内核。包括基准测试脚本,用于将内核性能与基准实现进行比较。

6安装·1热度·@huggingface

安装

$npx skills add https://github.com/huggingface/kernels --skill cuda-kernels

SKILL.md

This skill provides patterns and guidance for developing optimized CUDA kernels targeting NVIDIA GPUs (H100, A100, T4) for use with HuggingFace diffusers and transformers libraries.

Load pre-compiled kernels from HuggingFace Hub (no local compilation):

| diffusers | LTX-Video, Stable Diffusion, FLUX, DiT | RMSNorm, GEGLU, RoPE, AdaLN | | transformers | LLaMA, Mistral, Qwen, Falcon | RMSNorm, Attention |

提供针对针对 HuggingFace 扩散器和变压器库的 NVIDIA GPU(H100、A100、T4)编写和基准测试优化 CUDA 内核的指南。支持 LTX-Video、Stable Diffusion、LLaMA、Mistral 和 Qwen 等模型。包括与 HuggingFace Kernels Hub (get_kernel) 的集成,用于加载预编译的内核。包括基准测试脚本,用于将内核性能与基准实现进行比较。 来源:huggingface/kernels。

查看原文

可引用信息

为搜索与 AI 引用准备的稳定字段与命令。

安装命令
npx skills add https://github.com/huggingface/kernels --skill cuda-kernels
分类
*创意媒体
认证
收录时间
2026-02-17
更新时间
2026-02-18

快速解答

什么是 cuda-kernels?

提供针对针对 HuggingFace 扩散器和变压器库的 NVIDIA GPU(H100、A100、T4)编写和基准测试优化 CUDA 内核的指南。支持 LTX-Video、Stable Diffusion、LLaMA、Mistral 和 Qwen 等模型。包括与 HuggingFace Kernels Hub (get_kernel) 的集成,用于加载预编译的内核。包括基准测试脚本,用于将内核性能与基准实现进行比较。 来源:huggingface/kernels。

如何安装 cuda-kernels?

打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/huggingface/kernels --skill cuda-kernels 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code 或 Cursor 中使用

这个 Skill 的源码在哪?

https://github.com/huggingface/kernels

详情

分类
*创意媒体
来源
skills.sh
收录时间
2026-02-17

相关 Skills

暂无