·ollama-optimizer
</>

ollama-optimizer

luongnv89/skills

Optimisez la configuration d'Ollama pour des performances maximales sur la machine actuelle. À utiliser lorsqu'on lui demande « d'optimiser Ollama », « configurer Ollama », « accélérer Ollama », « régler les performances LLM », « configurer LLM local », « corriger les performances d'Ollama », « Ollama fonctionne lentement » ou lorsque les utilisateurs souhaitent maximiser la vitesse d'inférence, réduire l'utilisation de la mémoire ou sélectionner des modèles appropriés pour leur matériel. Analyse le matériel du système (GPU, RAM, CPU) et fournit des recommandations personnalisées.

15Installations·3Tendance·@luongnv89

Installation

$npx skills add https://github.com/luongnv89/skills --skill ollama-optimizer

SKILL.md

| Tier | Criteria | Max Model | Key Optimizations |

| CPU-only | No GPU detected | 3B | numthread tuning, Q4KM quant | | Low VRAM | <6GB VRAM | 3B | Flash attention, KV cache q40 | | Entry | 6-8GB VRAM | 8B | Flash attention, KV cache q80 | | Prosumer | 10-12GB VRAM | 14B | Flash attention, full offload | | Workstation | 16-24GB VRAM | 32B | Standard config, Q5KM option |

| High-end | 48GB+ VRAM | 70B+ | Multiple models, Q5/Q6 quants |

Optimisez la configuration d'Ollama pour des performances maximales sur la machine actuelle. À utiliser lorsqu'on lui demande « d'optimiser Ollama », « configurer Ollama », « accélérer Ollama », « régler les performances LLM », « configurer LLM local », « corriger les performances d'Ollama », « Ollama fonctionne lentement » ou lorsque les utilisateurs souhaitent maximiser la vitesse d'inférence, réduire l'utilisation de la mémoire ou sélectionner des modèles appropriés pour leur matériel. Analyse le matériel du système (GPU, RAM, CPU) et fournit des recommandations personnalisées. Source : luongnv89/skills.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/luongnv89/skills --skill ollama-optimizer
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-05
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que ollama-optimizer ?

Optimisez la configuration d'Ollama pour des performances maximales sur la machine actuelle. À utiliser lorsqu'on lui demande « d'optimiser Ollama », « configurer Ollama », « accélérer Ollama », « régler les performances LLM », « configurer LLM local », « corriger les performances d'Ollama », « Ollama fonctionne lentement » ou lorsque les utilisateurs souhaitent maximiser la vitesse d'inférence, réduire l'utilisation de la mémoire ou sélectionner des modèles appropriés pour leur matériel. Analyse le matériel du système (GPU, RAM, CPU) et fournit des recommandations personnalisées. Source : luongnv89/skills.

Comment installer ollama-optimizer ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/luongnv89/skills --skill ollama-optimizer Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/luongnv89/skills