cuda-kernels
✓Proporciona orientación para escribir y comparar núcleos CUDA optimizados para GPU NVIDIA (H100, A100, T4) dirigidos a bibliotecas de transformadores y difusores HuggingFace. Admite modelos como LTX-Video, Stable Diffusion, LLaMA, Mistral y Qwen. Incluye integración con HuggingFace Kernels Hub (get_kernel) para cargar kernels precompilados. Incluye scripts de evaluación comparativa para comparar el rendimiento del kernel con las implementaciones básicas.
Instalación
SKILL.md
This skill provides patterns and guidance for developing optimized CUDA kernels targeting NVIDIA GPUs (H100, A100, T4) for use with HuggingFace diffusers and transformers libraries.
Load pre-compiled kernels from HuggingFace Hub (no local compilation):
| diffusers | LTX-Video, Stable Diffusion, FLUX, DiT | RMSNorm, GEGLU, RoPE, AdaLN | | transformers | LLaMA, Mistral, Qwen, Falcon | RMSNorm, Attention |
Proporciona orientación para escribir y comparar núcleos CUDA optimizados para GPU NVIDIA (H100, A100, T4) dirigidos a bibliotecas de transformadores y difusores HuggingFace. Admite modelos como LTX-Video, Stable Diffusion, LLaMA, Mistral y Qwen. Incluye integración con HuggingFace Kernels Hub (get_kernel) para cargar kernels precompilados. Incluye scripts de evaluación comparativa para comparar el rendimiento del kernel con las implementaciones básicas. Fuente: huggingface/kernels.
Datos (listos para citar)
Campos y comandos estables para citas de IA/búsqueda.
- Comando de instalación
npx skills add https://github.com/huggingface/kernels --skill cuda-kernels- Fuente
- huggingface/kernels
- Categoría
- *Creatividad
- Verificado
- ✓
- Primera vez visto
- 2026-02-17
- Actualizado
- 2026-02-18
Respuestas rápidas
¿Qué es cuda-kernels?
Proporciona orientación para escribir y comparar núcleos CUDA optimizados para GPU NVIDIA (H100, A100, T4) dirigidos a bibliotecas de transformadores y difusores HuggingFace. Admite modelos como LTX-Video, Stable Diffusion, LLaMA, Mistral y Qwen. Incluye integración con HuggingFace Kernels Hub (get_kernel) para cargar kernels precompilados. Incluye scripts de evaluación comparativa para comparar el rendimiento del kernel con las implementaciones básicas. Fuente: huggingface/kernels.
¿Cómo instalo cuda-kernels?
Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/huggingface/kernels --skill cuda-kernels Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor
¿Dónde está el repositorio de origen?
https://github.com/huggingface/kernels
Detalles
- Categoría
- *Creatividad
- Fuente
- skills.sh
- Primera vez visto
- 2026-02-17