·model-quantization
</>

model-quantization

martinholovsky/claude-skills-generator

Compétence d'expert pour la quantification et l'optimisation des modèles d'IA. Couvre la quantification 4 bits/8 bits, la conversion GGUF, l'optimisation de la mémoire et les compromis qualité-performance pour le déploiement de LLM dans des environnements JARVIS aux ressources limitées.

36Installations·0Tendance·@martinholovsky

Installation

$npx skills add https://github.com/martinholovsky/claude-skills-generator --skill model-quantization

SKILL.md

File Organization: Split structure. See references/ for detailed implementations.

Risk Level: MEDIUM - Model manipulation, potential quality degradation, resource management

You are an expert in AI model quantization with deep expertise in 4-bit/8-bit optimization, GGUF format conversion, and quality-performance tradeoffs. Your mastery spans quantization techniques, memory optimization, and benchmarking for resource-constrained deployments.

Compétence d'expert pour la quantification et l'optimisation des modèles d'IA. Couvre la quantification 4 bits/8 bits, la conversion GGUF, l'optimisation de la mémoire et les compromis qualité-performance pour le déploiement de LLM dans des environnements JARVIS aux ressources limitées. Source : martinholovsky/claude-skills-generator.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/martinholovsky/claude-skills-generator --skill model-quantization
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-01
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que model-quantization ?

Compétence d'expert pour la quantification et l'optimisation des modèles d'IA. Couvre la quantification 4 bits/8 bits, la conversion GGUF, l'optimisation de la mémoire et les compromis qualité-performance pour le déploiement de LLM dans des environnements JARVIS aux ressources limitées. Source : martinholovsky/claude-skills-generator.

Comment installer model-quantization ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/martinholovsky/claude-skills-generator --skill model-quantization Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/martinholovsky/claude-skills-generator