·cuda-kernels
*

cuda-kernels

Содержит рекомендации по написанию и тестированию оптимизированных ядер CUDA для графических процессоров NVIDIA (H100, A100, T4) с использованием библиотек диффузоров и преобразователей HuggingFace. Поддерживает такие модели, как LTX-Video, Stable Diffusion, LLaMA, Mistral и Qwen. Включает интеграцию с HuggingFace Kernels Hub (get_kernel) для загрузки предварительно скомпилированных ядер. Включает сценарии сравнительного тестирования для сравнения производительности ядра с базовыми реализациями.

39Установки·2Тренд·@huggingface

Установка

$npx skills add https://github.com/huggingface/kernels --skill cuda-kernels

Как установить cuda-kernels

Быстро установите AI-навык cuda-kernels в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/huggingface/kernels --skill cuda-kernels
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: huggingface/kernels.

This skill provides patterns and guidance for developing optimized CUDA kernels targeting NVIDIA GPUs (H100, A100, T4) for use with HuggingFace diffusers and transformers libraries.

Load pre-compiled kernels from HuggingFace Hub (no local compilation):

| diffusers | LTX-Video, Stable Diffusion, FLUX, DiT | RMSNorm, GEGLU, RoPE, AdaLN | | transformers | LLaMA, Mistral, Qwen, Falcon | RMSNorm, Attention |

Содержит рекомендации по написанию и тестированию оптимизированных ядер CUDA для графических процессоров NVIDIA (H100, A100, T4) с использованием библиотек диффузоров и преобразователей HuggingFace. Поддерживает такие модели, как LTX-Video, Stable Diffusion, LLaMA, Mistral и Qwen. Включает интеграцию с HuggingFace Kernels Hub (get_kernel) для загрузки предварительно скомпилированных ядер. Включает сценарии сравнительного тестирования для сравнения производительности ядра с базовыми реализациями. Источник: huggingface/kernels.

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/huggingface/kernels --skill cuda-kernels
Источник
huggingface/kernels
Категория
*Креатив
Проверено
Впервые замечено
2026-02-17
Обновлено
2026-03-10

Browse more skills from huggingface/kernels

Короткие ответы

Что такое cuda-kernels?

Содержит рекомендации по написанию и тестированию оптимизированных ядер CUDA для графических процессоров NVIDIA (H100, A100, T4) с использованием библиотек диффузоров и преобразователей HuggingFace. Поддерживает такие модели, как LTX-Video, Stable Diffusion, LLaMA, Mistral и Qwen. Включает интеграцию с HuggingFace Kernels Hub (get_kernel) для загрузки предварительно скомпилированных ядер. Включает сценарии сравнительного тестирования для сравнения производительности ядра с базовыми реализациями. Источник: huggingface/kernels.

Как установить cuda-kernels?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/huggingface/kernels --skill cuda-kernels После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/huggingface/kernels

Детали

Категория
*Креатив
Источник
skills.sh
Впервые замечено
2026-02-17

Похожие навыки

Нет