·lora

Parametereffiziente Feinabstimmung mit Low-Rank Adaptation (LoRA). Verwenden Sie es, wenn Sie große Sprachmodelle mit begrenztem GPU-Speicher optimieren, aufgabenspezifische Adapter erstellen oder wenn Sie mehrere spezialisierte Modelle von einer einzigen Basis aus trainieren müssen.

6Installationen·0Trend·@itsmostafa

Installation

$npx skills add https://github.com/itsmostafa/llm-engineering-skills --skill lora

SKILL.md

LoRA (Low-Rank Adaptation) enables efficient fine-tuning by freezing pretrained weights and injecting small trainable matrices into transformer layers. This reduces trainable parameters to 0.1% of the original model while maintaining performance.

Instead of updating all weights during fine-tuning, LoRA decomposes weight updates into low-rank matrices:

The key insight: weight updates during fine-tuning have low intrinsic rank, so we can represent them efficiently with smaller matrices.

Parametereffiziente Feinabstimmung mit Low-Rank Adaptation (LoRA). Verwenden Sie es, wenn Sie große Sprachmodelle mit begrenztem GPU-Speicher optimieren, aufgabenspezifische Adapter erstellen oder wenn Sie mehrere spezialisierte Modelle von einer einzigen Basis aus trainieren müssen. Quelle: itsmostafa/llm-engineering-skills.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/itsmostafa/llm-engineering-skills --skill lora
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-11
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist lora?

Parametereffiziente Feinabstimmung mit Low-Rank Adaptation (LoRA). Verwenden Sie es, wenn Sie große Sprachmodelle mit begrenztem GPU-Speicher optimieren, aufgabenspezifische Adapter erstellen oder wenn Sie mehrere spezialisierte Modelle von einer einzigen Basis aus trainieren müssen. Quelle: itsmostafa/llm-engineering-skills.

Wie installiere ich lora?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/itsmostafa/llm-engineering-skills --skill lora Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/itsmostafa/llm-engineering-skills

Details

Kategorie
</>Entwicklung
Quelle
skills.sh
Erstes Auftreten
2026-02-11