·lora

Ajuste fino de parámetros eficiente con adaptación de bajo rango (LoRA). Úselo cuando ajuste modelos de lenguaje grandes con memoria de GPU limitada, cree adaptadores para tareas específicas o cuando necesite entrenar varios modelos especializados desde una única base.

6Instalaciones·0Tendencia·@itsmostafa

Instalación

$npx skills add https://github.com/itsmostafa/llm-engineering-skills --skill lora

SKILL.md

LoRA (Low-Rank Adaptation) enables efficient fine-tuning by freezing pretrained weights and injecting small trainable matrices into transformer layers. This reduces trainable parameters to 0.1% of the original model while maintaining performance.

Instead of updating all weights during fine-tuning, LoRA decomposes weight updates into low-rank matrices:

The key insight: weight updates during fine-tuning have low intrinsic rank, so we can represent them efficiently with smaller matrices.

Ajuste fino de parámetros eficiente con adaptación de bajo rango (LoRA). Úselo cuando ajuste modelos de lenguaje grandes con memoria de GPU limitada, cree adaptadores para tareas específicas o cuando necesite entrenar varios modelos especializados desde una única base. Fuente: itsmostafa/llm-engineering-skills.

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/itsmostafa/llm-engineering-skills --skill lora
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-11
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es lora?

Ajuste fino de parámetros eficiente con adaptación de bajo rango (LoRA). Úselo cuando ajuste modelos de lenguaje grandes con memoria de GPU limitada, cree adaptadores para tareas específicas o cuando necesite entrenar varios modelos especializados desde una única base. Fuente: itsmostafa/llm-engineering-skills.

¿Cómo instalo lora?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/itsmostafa/llm-engineering-skills --skill lora Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/itsmostafa/llm-engineering-skills

Detalles

Categoría
</>Desarrollo
Fuente
skills.sh
Primera vez visto
2026-02-11