·lora

透過低秩適應 (LoRA) 進行參數高效微調。在使用有限的 GPU 記憶體微調大型語言模型、建立特定於任務的適配器或需要從單一基礎訓練多個專用模型時使用。

6安裝·0熱度·@itsmostafa

安裝

$npx skills add https://github.com/itsmostafa/llm-engineering-skills --skill lora

SKILL.md

LoRA (Low-Rank Adaptation) enables efficient fine-tuning by freezing pretrained weights and injecting small trainable matrices into transformer layers. This reduces trainable parameters to 0.1% of the original model while maintaining performance.

Instead of updating all weights during fine-tuning, LoRA decomposes weight updates into low-rank matrices:

The key insight: weight updates during fine-tuning have low intrinsic rank, so we can represent them efficiently with smaller matrices.

透過低秩適應 (LoRA) 進行參數高效微調。在使用有限的 GPU 記憶體微調大型語言模型、建立特定於任務的適配器或需要從單一基礎訓練多個專用模型時使用。 來源:itsmostafa/llm-engineering-skills。

查看原文

可引用資訊

為搜尋與 AI 引用準備的穩定欄位與指令。

安裝指令
npx skills add https://github.com/itsmostafa/llm-engineering-skills --skill lora
分類
</>開發工具
認證
收錄時間
2026-02-11
更新時間
2026-02-18

快速解答

什麼是 lora?

透過低秩適應 (LoRA) 進行參數高效微調。在使用有限的 GPU 記憶體微調大型語言模型、建立特定於任務的適配器或需要從單一基礎訓練多個專用模型時使用。 來源:itsmostafa/llm-engineering-skills。

如何安裝 lora?

開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/itsmostafa/llm-engineering-skills --skill lora 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code 或 Cursor 中使用

這個 Skill 的原始碼在哪?

https://github.com/itsmostafa/llm-engineering-skills

詳情

分類
</>開發工具
來源
skills.sh
收錄時間
2026-02-11