·cuda-kernels
*

cuda-kernels

huggingface/kernels

Fournit des conseils pour l’écriture et l’analyse comparative des noyaux CUDA optimisés pour les GPU NVIDIA (H100, A100, T4) ciblant les bibliothèques de diffuseurs et de transformateurs HuggingFace. Prend en charge des modèles tels que LTX-Video, Stable Diffusion, LLaMA, Mistral et Qwen. Inclut l'intégration avec HuggingFace Kernels Hub (get_kernel) pour le chargement de noyaux précompilés. Inclut des scripts d'analyse comparative pour comparer les performances du noyau par rapport aux implémentations de base.

6Installations·1Tendance·@huggingface

Installation

$npx skills add https://github.com/huggingface/kernels --skill cuda-kernels

SKILL.md

This skill provides patterns and guidance for developing optimized CUDA kernels targeting NVIDIA GPUs (H100, A100, T4) for use with HuggingFace diffusers and transformers libraries.

Load pre-compiled kernels from HuggingFace Hub (no local compilation):

| diffusers | LTX-Video, Stable Diffusion, FLUX, DiT | RMSNorm, GEGLU, RoPE, AdaLN | | transformers | LLaMA, Mistral, Qwen, Falcon | RMSNorm, Attention |

Fournit des conseils pour l’écriture et l’analyse comparative des noyaux CUDA optimisés pour les GPU NVIDIA (H100, A100, T4) ciblant les bibliothèques de diffuseurs et de transformateurs HuggingFace. Prend en charge des modèles tels que LTX-Video, Stable Diffusion, LLaMA, Mistral et Qwen. Inclut l'intégration avec HuggingFace Kernels Hub (get_kernel) pour le chargement de noyaux précompilés. Inclut des scripts d'analyse comparative pour comparer les performances du noyau par rapport aux implémentations de base. Source : huggingface/kernels.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/huggingface/kernels --skill cuda-kernels
Catégorie
*Créativité
Vérifié
Première apparition
2026-02-17
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que cuda-kernels ?

Fournit des conseils pour l’écriture et l’analyse comparative des noyaux CUDA optimisés pour les GPU NVIDIA (H100, A100, T4) ciblant les bibliothèques de diffuseurs et de transformateurs HuggingFace. Prend en charge des modèles tels que LTX-Video, Stable Diffusion, LLaMA, Mistral et Qwen. Inclut l'intégration avec HuggingFace Kernels Hub (get_kernel) pour le chargement de noyaux précompilés. Inclut des scripts d'analyse comparative pour comparer les performances du noyau par rapport aux implémentations de base. Source : huggingface/kernels.

Comment installer cuda-kernels ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/huggingface/kernels --skill cuda-kernels Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/huggingface/kernels

Détails

Catégorie
*Créativité
Source
skills.sh
Première apparition
2026-02-17

Skills Connexes

Aucun