·peft-fine-tuning
</>

peft-fine-tuning

orchestra-research/ai-research-skills

Ajustement précis des paramètres pour les LLM à l'aide des méthodes LoRA, QLoRA et plus de 25. À utiliser lors du réglage fin de grands modèles (7B-70B) avec une mémoire GPU limitée, lorsque vous devez entraîner <1 % des paramètres avec une perte de précision minimale, ou pour le service multi-adaptateurs. La bibliothèque officielle de HuggingFace intégrée à l'écosystème des transformateurs.

16Installations·0Tendance·@orchestra-research

Installation

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill peft-fine-tuning

SKILL.md

Fine-tune LLMs by training <1% of parameters using LoRA, QLoRA, and 25+ adapter methods.

| Rank | Trainable Params | Memory | Quality | Use Case |

| 4 | 3M | Minimal | Lower | Simple tasks, prototyping | | 8 | 7M | Low | Good | Recommended starting point | | 16 | 14M | Medium | Better | General fine-tuning | | 32 | 27M | Higher | High | Complex tasks | | 64 | 54M | High | Highest | Domain adaptation, 70B models |

Ajustement précis des paramètres pour les LLM à l'aide des méthodes LoRA, QLoRA et plus de 25. À utiliser lors du réglage fin de grands modèles (7B-70B) avec une mémoire GPU limitée, lorsque vous devez entraîner <1 % des paramètres avec une perte de précision minimale, ou pour le service multi-adaptateurs. La bibliothèque officielle de HuggingFace intégrée à l'écosystème des transformateurs. Source : orchestra-research/ai-research-skills.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/orchestra-research/ai-research-skills --skill peft-fine-tuning
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-11
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que peft-fine-tuning ?

Ajustement précis des paramètres pour les LLM à l'aide des méthodes LoRA, QLoRA et plus de 25. À utiliser lors du réglage fin de grands modèles (7B-70B) avec une mémoire GPU limitée, lorsque vous devez entraîner <1 % des paramètres avec une perte de précision minimale, ou pour le service multi-adaptateurs. La bibliothèque officielle de HuggingFace intégrée à l'écosystème des transformateurs. Source : orchestra-research/ai-research-skills.

Comment installer peft-fine-tuning ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/orchestra-research/ai-research-skills --skill peft-fine-tuning Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/orchestra-research/ai-research-skills

Détails

Catégorie
</>Développement
Source
skills.sh
Première apparition
2026-02-11