·cuda-kernels
*

cuda-kernels

huggingface/kernels

Proporciona orientación para escribir y comparar núcleos CUDA optimizados para GPU NVIDIA (H100, A100, T4) dirigidos a bibliotecas de transformadores y difusores HuggingFace. Admite modelos como LTX-Video, Stable Diffusion, LLaMA, Mistral y Qwen. Incluye integración con HuggingFace Kernels Hub (get_kernel) para cargar kernels precompilados. Incluye scripts de evaluación comparativa para comparar el rendimiento del kernel con las implementaciones básicas.

6Instalaciones·1Tendencia·@huggingface

Instalación

$npx skills add https://github.com/huggingface/kernels --skill cuda-kernels

SKILL.md

This skill provides patterns and guidance for developing optimized CUDA kernels targeting NVIDIA GPUs (H100, A100, T4) for use with HuggingFace diffusers and transformers libraries.

Load pre-compiled kernels from HuggingFace Hub (no local compilation):

| diffusers | LTX-Video, Stable Diffusion, FLUX, DiT | RMSNorm, GEGLU, RoPE, AdaLN | | transformers | LLaMA, Mistral, Qwen, Falcon | RMSNorm, Attention |

Proporciona orientación para escribir y comparar núcleos CUDA optimizados para GPU NVIDIA (H100, A100, T4) dirigidos a bibliotecas de transformadores y difusores HuggingFace. Admite modelos como LTX-Video, Stable Diffusion, LLaMA, Mistral y Qwen. Incluye integración con HuggingFace Kernels Hub (get_kernel) para cargar kernels precompilados. Incluye scripts de evaluación comparativa para comparar el rendimiento del kernel con las implementaciones básicas. Fuente: huggingface/kernels.

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/huggingface/kernels --skill cuda-kernels
Categoría
*Creatividad
Verificado
Primera vez visto
2026-02-17
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es cuda-kernels?

Proporciona orientación para escribir y comparar núcleos CUDA optimizados para GPU NVIDIA (H100, A100, T4) dirigidos a bibliotecas de transformadores y difusores HuggingFace. Admite modelos como LTX-Video, Stable Diffusion, LLaMA, Mistral y Qwen. Incluye integración con HuggingFace Kernels Hub (get_kernel) para cargar kernels precompilados. Incluye scripts de evaluación comparativa para comparar el rendimiento del kernel con las implementaciones básicas. Fuente: huggingface/kernels.

¿Cómo instalo cuda-kernels?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/huggingface/kernels --skill cuda-kernels Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/huggingface/kernels

Detalles

Categoría
*Creatividad
Fuente
skills.sh
Primera vez visto
2026-02-17

Skills Relacionados

Ninguno