·lora

低ランク適応 (LoRA) によるパラメータ効率の高い微調整。限られた GPU メモリで大規模な言語モデルを微調整する場合、タスク固有のアダプターを作成する場合、または単一のベースから複数の特殊なモデルをトレーニングする必要がある場合に使用します。

6インストール·0トレンド·@itsmostafa

インストール

$npx skills add https://github.com/itsmostafa/llm-engineering-skills --skill lora

SKILL.md

LoRA (Low-Rank Adaptation) enables efficient fine-tuning by freezing pretrained weights and injecting small trainable matrices into transformer layers. This reduces trainable parameters to 0.1% of the original model while maintaining performance.

Instead of updating all weights during fine-tuning, LoRA decomposes weight updates into low-rank matrices:

The key insight: weight updates during fine-tuning have low intrinsic rank, so we can represent them efficiently with smaller matrices.

低ランク適応 (LoRA) によるパラメータ効率の高い微調整。限られた GPU メモリで大規模な言語モデルを微調整する場合、タスク固有のアダプターを作成する場合、または単一のベースから複数の特殊なモデルをトレーニングする必要がある場合に使用します。 ソース: itsmostafa/llm-engineering-skills。

原文を見る

引用可能な情報

AI/検索での引用用の安定したフィールドとコマンド。

インストールコマンド
npx skills add https://github.com/itsmostafa/llm-engineering-skills --skill lora
カテゴリ
</>開発ツール
認証済み
初回登録
2026-02-11
更新日
2026-02-18

クイックアンサー

lora とは?

低ランク適応 (LoRA) によるパラメータ効率の高い微調整。限られた GPU メモリで大規模な言語モデルを微調整する場合、タスク固有のアダプターを作成する場合、または単一のベースから複数の特殊なモデルをトレーニングする必要がある場合に使用します。 ソース: itsmostafa/llm-engineering-skills。

lora のインストール方法は?

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/itsmostafa/llm-engineering-skills --skill lora インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります

ソースリポジトリはどこですか?

https://github.com/itsmostafa/llm-engineering-skills