·quantizing-models-bitsandbytes
</>

quantizing-models-bitsandbytes

orchestra-research/ai-research-skills

Quantifie les LLM à 8 bits ou 4 bits pour une réduction de mémoire de 50 à 75 % avec une perte de précision minimale. À utiliser lorsque la mémoire GPU est limitée, que vous devez adapter des modèles plus grands ou que vous souhaitez une inférence plus rapide. Prend en charge les formats INT8, NF4, FP4, la formation QLoRA et les optimiseurs 8 bits. Fonctionne avec les transformateurs HuggingFace.

15Installations·0Tendance·@orchestra-research

Installation

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill quantizing-models-bitsandbytes

SKILL.md

bitsandbytes reduces LLM memory by 50% (8-bit) or 75% (4-bit) with <1% accuracy loss.

| 8 GB | 3B | 4-bit | | 12 GB | 7B | 4-bit | | 16 GB | 7B | 8-bit or 4-bit | | 24 GB | 13B | 8-bit or 70B 4-bit | | 40+ GB | 70B | 8-bit |

QLoRA training guide: See references/qlora-training.md for complete fine-tuning workflows, hyperparameter tuning, and multi-GPU training.

Quantifie les LLM à 8 bits ou 4 bits pour une réduction de mémoire de 50 à 75 % avec une perte de précision minimale. À utiliser lorsque la mémoire GPU est limitée, que vous devez adapter des modèles plus grands ou que vous souhaitez une inférence plus rapide. Prend en charge les formats INT8, NF4, FP4, la formation QLoRA et les optimiseurs 8 bits. Fonctionne avec les transformateurs HuggingFace. Source : orchestra-research/ai-research-skills.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/orchestra-research/ai-research-skills --skill quantizing-models-bitsandbytes
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-11
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que quantizing-models-bitsandbytes ?

Quantifie les LLM à 8 bits ou 4 bits pour une réduction de mémoire de 50 à 75 % avec une perte de précision minimale. À utiliser lorsque la mémoire GPU est limitée, que vous devez adapter des modèles plus grands ou que vous souhaitez une inférence plus rapide. Prend en charge les formats INT8, NF4, FP4, la formation QLoRA et les optimiseurs 8 bits. Fonctionne avec les transformateurs HuggingFace. Source : orchestra-research/ai-research-skills.

Comment installer quantizing-models-bitsandbytes ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/orchestra-research/ai-research-skills --skill quantizing-models-bitsandbytes Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/orchestra-research/ai-research-skills

Détails

Catégorie
</>Développement
Source
skills.sh
Première apparition
2026-02-11