cuda-kernels
✓Fournit des conseils pour l’écriture et l’analyse comparative des noyaux CUDA optimisés pour les GPU NVIDIA (H100, A100, T4) ciblant les bibliothèques de diffuseurs et de transformateurs HuggingFace. Prend en charge des modèles tels que LTX-Video, Stable Diffusion, LLaMA, Mistral et Qwen. Inclut l'intégration avec HuggingFace Kernels Hub (get_kernel) pour le chargement de noyaux précompilés. Inclut des scripts d'analyse comparative pour comparer les performances du noyau par rapport aux implémentations de base.
Installation
SKILL.md
This skill provides patterns and guidance for developing optimized CUDA kernels targeting NVIDIA GPUs (H100, A100, T4) for use with HuggingFace diffusers and transformers libraries.
Load pre-compiled kernels from HuggingFace Hub (no local compilation):
| diffusers | LTX-Video, Stable Diffusion, FLUX, DiT | RMSNorm, GEGLU, RoPE, AdaLN | | transformers | LLaMA, Mistral, Qwen, Falcon | RMSNorm, Attention |
Fournit des conseils pour l’écriture et l’analyse comparative des noyaux CUDA optimisés pour les GPU NVIDIA (H100, A100, T4) ciblant les bibliothèques de diffuseurs et de transformateurs HuggingFace. Prend en charge des modèles tels que LTX-Video, Stable Diffusion, LLaMA, Mistral et Qwen. Inclut l'intégration avec HuggingFace Kernels Hub (get_kernel) pour le chargement de noyaux précompilés. Inclut des scripts d'analyse comparative pour comparer les performances du noyau par rapport aux implémentations de base. Source : huggingface/kernels.
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/huggingface/kernels --skill cuda-kernels- Source
- huggingface/kernels
- Catégorie
- *Créativité
- Vérifié
- ✓
- Première apparition
- 2026-02-17
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que cuda-kernels ?
Fournit des conseils pour l’écriture et l’analyse comparative des noyaux CUDA optimisés pour les GPU NVIDIA (H100, A100, T4) ciblant les bibliothèques de diffuseurs et de transformateurs HuggingFace. Prend en charge des modèles tels que LTX-Video, Stable Diffusion, LLaMA, Mistral et Qwen. Inclut l'intégration avec HuggingFace Kernels Hub (get_kernel) pour le chargement de noyaux précompilés. Inclut des scripts d'analyse comparative pour comparer les performances du noyau par rapport aux implémentations de base. Source : huggingface/kernels.
Comment installer cuda-kernels ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/huggingface/kernels --skill cuda-kernels Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/huggingface/kernels
Détails
- Catégorie
- *Créativité
- Source
- skills.sh
- Première apparition
- 2026-02-17