ollama-optimizer
✓Optimisez la configuration d'Ollama pour des performances maximales sur la machine actuelle. À utiliser lorsqu'on lui demande « d'optimiser Ollama », « configurer Ollama », « accélérer Ollama », « régler les performances LLM », « configurer LLM local », « corriger les performances d'Ollama », « Ollama fonctionne lentement » ou lorsque les utilisateurs souhaitent maximiser la vitesse d'inférence, réduire l'utilisation de la mémoire ou sélectionner des modèles appropriés pour leur matériel. Analyse le matériel du système (GPU, RAM, CPU) et fournit des recommandations personnalisées.
Installation
SKILL.md
| Tier | Criteria | Max Model | Key Optimizations |
| CPU-only | No GPU detected | 3B | numthread tuning, Q4KM quant | | Low VRAM | <6GB VRAM | 3B | Flash attention, KV cache q40 | | Entry | 6-8GB VRAM | 8B | Flash attention, KV cache q80 | | Prosumer | 10-12GB VRAM | 14B | Flash attention, full offload | | Workstation | 16-24GB VRAM | 32B | Standard config, Q5KM option |
| High-end | 48GB+ VRAM | 70B+ | Multiple models, Q5/Q6 quants |
Optimisez la configuration d'Ollama pour des performances maximales sur la machine actuelle. À utiliser lorsqu'on lui demande « d'optimiser Ollama », « configurer Ollama », « accélérer Ollama », « régler les performances LLM », « configurer LLM local », « corriger les performances d'Ollama », « Ollama fonctionne lentement » ou lorsque les utilisateurs souhaitent maximiser la vitesse d'inférence, réduire l'utilisation de la mémoire ou sélectionner des modèles appropriés pour leur matériel. Analyse le matériel du système (GPU, RAM, CPU) et fournit des recommandations personnalisées. Source : luongnv89/skills.
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/luongnv89/skills --skill ollama-optimizer- Source
- luongnv89/skills
- Catégorie
- </>Développement
- Vérifié
- ✓
- Première apparition
- 2026-02-05
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que ollama-optimizer ?
Optimisez la configuration d'Ollama pour des performances maximales sur la machine actuelle. À utiliser lorsqu'on lui demande « d'optimiser Ollama », « configurer Ollama », « accélérer Ollama », « régler les performances LLM », « configurer LLM local », « corriger les performances d'Ollama », « Ollama fonctionne lentement » ou lorsque les utilisateurs souhaitent maximiser la vitesse d'inférence, réduire l'utilisation de la mémoire ou sélectionner des modèles appropriés pour leur matériel. Analyse le matériel du système (GPU, RAM, CPU) et fournit des recommandations personnalisées. Source : luongnv89/skills.
Comment installer ollama-optimizer ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/luongnv89/skills --skill ollama-optimizer Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/luongnv89/skills
Détails
- Catégorie
- </>Développement
- Source
- skills.sh
- Première apparition
- 2026-02-05