·onnx-webgpu-converter
</>

onnx-webgpu-converter

Convertissez les modèles de transformateur HuggingFace au format ONNX pour l'inférence du navigateur avec Transformers.js et WebGPU. À utiliser lorsqu'on vous donne un lien de modèle HuggingFace pour convertir en ONNX, lors de la configuration d'optimum-cli pour l'exportation ONNX, lors de la quantification des modèles (fp16, q8, q4) pour le déploiement Web, lors de la configuration de Transformers.js avec l'accélération WebGPU ou lors du dépannage des erreurs de conversion ONNX. Se déclenche sur les mentions de conversion ONNX, Transformers.js, d'inférence WebGPU, d'exportation optimale, de quantification de modèle pour le navigateur ou d'exécution de modèles ML dans le navigateur.

0Installations·0Tendance·@jakerains

Installation

$npx skills add https://github.com/jakerains/agentskills --skill onnx-webgpu-converter

Comment installer onnx-webgpu-converter

Installez rapidement le skill IA onnx-webgpu-converter dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/jakerains/agentskills --skill onnx-webgpu-converter
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : jakerains/agentskills.

Convert any HuggingFace model to ONNX and run it in the browser with Transformers.js + WebGPU.

Before converting, check if the model already has an ONNX version:

Common tasks: text-generation, text-classification, feature-extraction, image-classification, automatic-speech-recognition, object-detection, image-segmentation, question-answering, token-classification, zero-shot-classification

Convertissez les modèles de transformateur HuggingFace au format ONNX pour l'inférence du navigateur avec Transformers.js et WebGPU. À utiliser lorsqu'on vous donne un lien de modèle HuggingFace pour convertir en ONNX, lors de la configuration d'optimum-cli pour l'exportation ONNX, lors de la quantification des modèles (fp16, q8, q4) pour le déploiement Web, lors de la configuration de Transformers.js avec l'accélération WebGPU ou lors du dépannage des erreurs de conversion ONNX. Se déclenche sur les mentions de conversion ONNX, Transformers.js, d'inférence WebGPU, d'exportation optimale, de quantification de modèle pour le navigateur ou d'exécution de modèles ML dans le navigateur. Source : jakerains/agentskills.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/jakerains/agentskills --skill onnx-webgpu-converter
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-22
Mis à jour
2026-03-10

Browse more skills from jakerains/agentskills

Réponses rapides

Qu'est-ce que onnx-webgpu-converter ?

Convertissez les modèles de transformateur HuggingFace au format ONNX pour l'inférence du navigateur avec Transformers.js et WebGPU. À utiliser lorsqu'on vous donne un lien de modèle HuggingFace pour convertir en ONNX, lors de la configuration d'optimum-cli pour l'exportation ONNX, lors de la quantification des modèles (fp16, q8, q4) pour le déploiement Web, lors de la configuration de Transformers.js avec l'accélération WebGPU ou lors du dépannage des erreurs de conversion ONNX. Se déclenche sur les mentions de conversion ONNX, Transformers.js, d'inférence WebGPU, d'exportation optimale, de quantification de modèle pour le navigateur ou d'exécution de modèles ML dans le navigateur. Source : jakerains/agentskills.

Comment installer onnx-webgpu-converter ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/jakerains/agentskills --skill onnx-webgpu-converter Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/jakerains/agentskills

Détails

Catégorie
</>Développement
Source
user
Première apparition
2026-02-22