·cuda-kernels
*

cuda-kernels

Fornisce indicazioni per la scrittura e il benchmarking di kernel CUDA ottimizzati per GPU NVIDIA (H100, A100, T4) destinati alle librerie di diffusori e trasformatori HuggingFace. Supporta modelli come LTX-Video, Stable Diffusion, LLaMA, Mistral e Qwen. Include l'integrazione con HuggingFace Kernels Hub (get_kernel) per caricare kernel precompilati. Include script di benchmarking per confrontare le prestazioni del kernel con le implementazioni di base.

39Installazioni·2Tendenza·@huggingface

Installazione

$npx skills add https://github.com/huggingface/kernels --skill cuda-kernels

Come installare cuda-kernels

Installa rapidamente la skill AI cuda-kernels nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/huggingface/kernels --skill cuda-kernels
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: huggingface/kernels.

This skill provides patterns and guidance for developing optimized CUDA kernels targeting NVIDIA GPUs (H100, A100, T4) for use with HuggingFace diffusers and transformers libraries.

Load pre-compiled kernels from HuggingFace Hub (no local compilation):

| diffusers | LTX-Video, Stable Diffusion, FLUX, DiT | RMSNorm, GEGLU, RoPE, AdaLN | | transformers | LLaMA, Mistral, Qwen, Falcon | RMSNorm, Attention |

Fornisce indicazioni per la scrittura e il benchmarking di kernel CUDA ottimizzati per GPU NVIDIA (H100, A100, T4) destinati alle librerie di diffusori e trasformatori HuggingFace. Supporta modelli come LTX-Video, Stable Diffusion, LLaMA, Mistral e Qwen. Include l'integrazione con HuggingFace Kernels Hub (get_kernel) per caricare kernel precompilati. Include script di benchmarking per confrontare le prestazioni del kernel con le implementazioni di base. Fonte: huggingface/kernels.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/huggingface/kernels --skill cuda-kernels
Categoria
*Creatività
Verificato
Prima apparizione
2026-02-17
Aggiornato
2026-03-10

Browse more skills from huggingface/kernels

Risposte rapide

Che cos'è cuda-kernels?

Fornisce indicazioni per la scrittura e il benchmarking di kernel CUDA ottimizzati per GPU NVIDIA (H100, A100, T4) destinati alle librerie di diffusori e trasformatori HuggingFace. Supporta modelli come LTX-Video, Stable Diffusion, LLaMA, Mistral e Qwen. Include l'integrazione con HuggingFace Kernels Hub (get_kernel) per caricare kernel precompilati. Include script di benchmarking per confrontare le prestazioni del kernel con le implementazioni di base. Fonte: huggingface/kernels.

Come installo cuda-kernels?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/huggingface/kernels --skill cuda-kernels Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/huggingface/kernels

Dettagli

Categoria
*Creatività
Fonte
skills.sh
Prima apparizione
2026-02-17

Skills correlate

Nessuna