·ollama-local
</>

ollama-local

Inferenza LLM locale con Ollama. Da utilizzare durante l'impostazione di modelli locali per lo sviluppo, pipeline CI o riduzione dei costi. Copre la selezione del modello, l'integrazione di LangChain e l'ottimizzazione delle prestazioni.

4Installazioni·0Tendenza·@yonatangross

Installazione

$npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill ollama-local

Come installare ollama-local

Installa rapidamente la skill AI ollama-local nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill ollama-local
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: yonatangross/skillforge-claude-plugin.

Run LLMs locally for cost savings, privacy, and offline development.

| Reasoning | deepseek-r1:70b | 42GB | GPT-4 level | | Coding | qwen2.5-coder:32b | 35GB | 73.7% Aider benchmark | | Embeddings | nomic-embed-text | 0.5GB | 768 dims, fast | | General | llama3.2:70b | 40GB | Good all-around |

| Cloud APIs | $675/month | 200-500ms | | Ollama Local | $50 (electricity) | 50-200ms | | Savings | 93% | 2-3x faster |

Inferenza LLM locale con Ollama. Da utilizzare durante l'impostazione di modelli locali per lo sviluppo, pipeline CI o riduzione dei costi. Copre la selezione del modello, l'integrazione di LangChain e l'ottimizzazione delle prestazioni. Fonte: yonatangross/skillforge-claude-plugin.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill ollama-local
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-11

Browse more skills from yonatangross/skillforge-claude-plugin

Risposte rapide

Che cos'è ollama-local?

Inferenza LLM locale con Ollama. Da utilizzare durante l'impostazione di modelli locali per lo sviluppo, pipeline CI o riduzione dei costi. Copre la selezione del modello, l'integrazione di LangChain e l'ottimizzazione delle prestazioni. Fonte: yonatangross/skillforge-claude-plugin.

Come installo ollama-local?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill ollama-local Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/yonatangross/skillforge-claude-plugin