·peft-fine-tuning
</>

peft-fine-tuning

orchestra-research/ai-research-skills

Parametereffiziente Feinabstimmung für LLMs mit LoRA, QLoRA und über 25 Methoden. Verwenden Sie diese Option bei der Feinabstimmung großer Modelle (7B-70B) mit begrenztem GPU-Speicher, wenn Sie <1 % der Parameter mit minimalem Genauigkeitsverlust trainieren müssen, oder für die Bereitstellung mit mehreren Adaptern. Die offizielle Bibliothek von HuggingFace ist in das Transformers-Ökosystem integriert.

16Installationen·0Trend·@orchestra-research

Installation

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill peft-fine-tuning

SKILL.md

Fine-tune LLMs by training <1% of parameters using LoRA, QLoRA, and 25+ adapter methods.

| Rank | Trainable Params | Memory | Quality | Use Case |

| 4 | 3M | Minimal | Lower | Simple tasks, prototyping | | 8 | 7M | Low | Good | Recommended starting point | | 16 | 14M | Medium | Better | General fine-tuning | | 32 | 27M | Higher | High | Complex tasks | | 64 | 54M | High | Highest | Domain adaptation, 70B models |

Parametereffiziente Feinabstimmung für LLMs mit LoRA, QLoRA und über 25 Methoden. Verwenden Sie diese Option bei der Feinabstimmung großer Modelle (7B-70B) mit begrenztem GPU-Speicher, wenn Sie <1 % der Parameter mit minimalem Genauigkeitsverlust trainieren müssen, oder für die Bereitstellung mit mehreren Adaptern. Die offizielle Bibliothek von HuggingFace ist in das Transformers-Ökosystem integriert. Quelle: orchestra-research/ai-research-skills.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/orchestra-research/ai-research-skills --skill peft-fine-tuning
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-11
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist peft-fine-tuning?

Parametereffiziente Feinabstimmung für LLMs mit LoRA, QLoRA und über 25 Methoden. Verwenden Sie diese Option bei der Feinabstimmung großer Modelle (7B-70B) mit begrenztem GPU-Speicher, wenn Sie <1 % der Parameter mit minimalem Genauigkeitsverlust trainieren müssen, oder für die Bereitstellung mit mehreren Adaptern. Die offizielle Bibliothek von HuggingFace ist in das Transformers-Ökosystem integriert. Quelle: orchestra-research/ai-research-skills.

Wie installiere ich peft-fine-tuning?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/orchestra-research/ai-research-skills --skill peft-fine-tuning Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/orchestra-research/ai-research-skills