·cuda-kernels
*

cuda-kernels

huggingface/kernels

Bietet Anleitungen zum Schreiben und Benchmarking optimierter CUDA-Kernel für NVIDIA-GPUs (H100, A100, T4), die auf HuggingFace-Diffusor- und Transformer-Bibliotheken abzielen. Unterstützt Modelle wie LTX-Video, Stable Diffusion, LLaMA, Mistral und Qwen. Beinhaltet die Integration mit HuggingFace Kernels Hub (get_kernel) zum Laden vorkompilierter Kernel. Enthält Benchmarking-Skripte zum Vergleich der Kernel-Leistung mit Basisimplementierungen.

6Installationen·1Trend·@huggingface

Installation

$npx skills add https://github.com/huggingface/kernels --skill cuda-kernels

SKILL.md

This skill provides patterns and guidance for developing optimized CUDA kernels targeting NVIDIA GPUs (H100, A100, T4) for use with HuggingFace diffusers and transformers libraries.

Load pre-compiled kernels from HuggingFace Hub (no local compilation):

| diffusers | LTX-Video, Stable Diffusion, FLUX, DiT | RMSNorm, GEGLU, RoPE, AdaLN | | transformers | LLaMA, Mistral, Qwen, Falcon | RMSNorm, Attention |

Bietet Anleitungen zum Schreiben und Benchmarking optimierter CUDA-Kernel für NVIDIA-GPUs (H100, A100, T4), die auf HuggingFace-Diffusor- und Transformer-Bibliotheken abzielen. Unterstützt Modelle wie LTX-Video, Stable Diffusion, LLaMA, Mistral und Qwen. Beinhaltet die Integration mit HuggingFace Kernels Hub (get_kernel) zum Laden vorkompilierter Kernel. Enthält Benchmarking-Skripte zum Vergleich der Kernel-Leistung mit Basisimplementierungen. Quelle: huggingface/kernels.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/huggingface/kernels --skill cuda-kernels
Kategorie
*Kreativität
Verifiziert
Erstes Auftreten
2026-02-17
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist cuda-kernels?

Bietet Anleitungen zum Schreiben und Benchmarking optimierter CUDA-Kernel für NVIDIA-GPUs (H100, A100, T4), die auf HuggingFace-Diffusor- und Transformer-Bibliotheken abzielen. Unterstützt Modelle wie LTX-Video, Stable Diffusion, LLaMA, Mistral und Qwen. Beinhaltet die Integration mit HuggingFace Kernels Hub (get_kernel) zum Laden vorkompilierter Kernel. Enthält Benchmarking-Skripte zum Vergleich der Kernel-Leistung mit Basisimplementierungen. Quelle: huggingface/kernels.

Wie installiere ich cuda-kernels?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/huggingface/kernels --skill cuda-kernels Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/huggingface/kernels

Details

Kategorie
*Kreativität
Quelle
skills.sh
Erstes Auftreten
2026-02-17

Verwandte Skills

Keine