cuda-kernels
✓Bietet Anleitungen zum Schreiben und Benchmarking optimierter CUDA-Kernel für NVIDIA-GPUs (H100, A100, T4), die auf HuggingFace-Diffusor- und Transformer-Bibliotheken abzielen. Unterstützt Modelle wie LTX-Video, Stable Diffusion, LLaMA, Mistral und Qwen. Beinhaltet die Integration mit HuggingFace Kernels Hub (get_kernel) zum Laden vorkompilierter Kernel. Enthält Benchmarking-Skripte zum Vergleich der Kernel-Leistung mit Basisimplementierungen.
Installation
SKILL.md
This skill provides patterns and guidance for developing optimized CUDA kernels targeting NVIDIA GPUs (H100, A100, T4) for use with HuggingFace diffusers and transformers libraries.
Load pre-compiled kernels from HuggingFace Hub (no local compilation):
| diffusers | LTX-Video, Stable Diffusion, FLUX, DiT | RMSNorm, GEGLU, RoPE, AdaLN | | transformers | LLaMA, Mistral, Qwen, Falcon | RMSNorm, Attention |
Bietet Anleitungen zum Schreiben und Benchmarking optimierter CUDA-Kernel für NVIDIA-GPUs (H100, A100, T4), die auf HuggingFace-Diffusor- und Transformer-Bibliotheken abzielen. Unterstützt Modelle wie LTX-Video, Stable Diffusion, LLaMA, Mistral und Qwen. Beinhaltet die Integration mit HuggingFace Kernels Hub (get_kernel) zum Laden vorkompilierter Kernel. Enthält Benchmarking-Skripte zum Vergleich der Kernel-Leistung mit Basisimplementierungen. Quelle: huggingface/kernels.
Fakten (zitierbereit)
Stabile Felder und Befehle für KI/Such-Zitate.
- Installationsbefehl
npx skills add https://github.com/huggingface/kernels --skill cuda-kernels- Quelle
- huggingface/kernels
- Kategorie
- *Kreativität
- Verifiziert
- ✓
- Erstes Auftreten
- 2026-02-17
- Aktualisiert
- 2026-02-18
Schnelle Antworten
Was ist cuda-kernels?
Bietet Anleitungen zum Schreiben und Benchmarking optimierter CUDA-Kernel für NVIDIA-GPUs (H100, A100, T4), die auf HuggingFace-Diffusor- und Transformer-Bibliotheken abzielen. Unterstützt Modelle wie LTX-Video, Stable Diffusion, LLaMA, Mistral und Qwen. Beinhaltet die Integration mit HuggingFace Kernels Hub (get_kernel) zum Laden vorkompilierter Kernel. Enthält Benchmarking-Skripte zum Vergleich der Kernel-Leistung mit Basisimplementierungen. Quelle: huggingface/kernels.
Wie installiere ich cuda-kernels?
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/huggingface/kernels --skill cuda-kernels Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Wo ist das Quell-Repository?
https://github.com/huggingface/kernels
Details
- Kategorie
- *Kreativität
- Quelle
- skills.sh
- Erstes Auftreten
- 2026-02-17