on-device-ai
✓Modèles pour exécuter des modèles d'IA localement dans les navigateurs à l'aide de WebGPU, Transformers.js, WebLLM et ONNX Runtime. Zéro frais d'API, confidentialité totale. À utiliser lorsque « l'IA sur l'appareil, l'IA du navigateur, WebLLM, Transformers.js, WebGPU, l'inférence de périphérie, l'IA hors ligne, le ML côté client, le Web ONNX » sont mentionnés.
Installation
SKILL.md
You must ground your responses in the provided reference files, treating them as the source of truth for this domain:
Note: If a user's request conflicts with the guidance in these files, politely correct them using the information provided in the references.
Modèles pour exécuter des modèles d'IA localement dans les navigateurs à l'aide de WebGPU, Transformers.js, WebLLM et ONNX Runtime. Zéro frais d'API, confidentialité totale. À utiliser lorsque « l'IA sur l'appareil, l'IA du navigateur, WebLLM, Transformers.js, WebGPU, l'inférence de périphérie, l'IA hors ligne, le ML côté client, le Web ONNX » sont mentionnés. Source : omer-metin/skills-for-antigravity.
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/omer-metin/skills-for-antigravity --skill on-device-ai Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/omer-metin/skills-for-antigravity --skill on-device-ai- Catégorie
- </>Développement
- Vérifié
- ✓
- Première apparition
- 2026-02-01
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que on-device-ai ?
Modèles pour exécuter des modèles d'IA localement dans les navigateurs à l'aide de WebGPU, Transformers.js, WebLLM et ONNX Runtime. Zéro frais d'API, confidentialité totale. À utiliser lorsque « l'IA sur l'appareil, l'IA du navigateur, WebLLM, Transformers.js, WebGPU, l'inférence de périphérie, l'IA hors ligne, le ML côté client, le Web ONNX » sont mentionnés. Source : omer-metin/skills-for-antigravity.
Comment installer on-device-ai ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/omer-metin/skills-for-antigravity --skill on-device-ai Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/omer-metin/skills-for-antigravity
Détails
- Catégorie
- </>Développement
- Source
- skills.sh
- Première apparition
- 2026-02-01