·ollama
</>

ollama

Utilizzalo se l'utente desidera connettersi a Ollama o sfruttare Ollama in qualsiasi forma all'interno del proprio progetto. Guida gli utenti che integrano Ollama nei loro progetti per l'inferenza dell'intelligenza artificiale locale. Copre l'installazione, la configurazione della connessione, la gestione del modello e l'utilizzo dell'API sia per Python che per Node.js. Aiuta con la generazione di testo, le interfacce di chat, gli incorporamenti, le risposte in streaming e la creazione di applicazioni basate sull'intelligenza artificiale utilizzando LLM locali.

12Installazioni·1Tendenza·@balloob

Installazione

$npx skills add https://github.com/balloob/llm-skills --skill ollama

Come installare ollama

Installa rapidamente la skill AI ollama nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/balloob/llm-skills --skill ollama
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: balloob/llm-skills.

This skill helps users integrate Ollama into their projects for running large language models locally. The skill guides users through setup, connection validation, model management, and API integration for both Python and Node.js applications. Ollama provides a simple API for running models like Llama, Mistral, Gemma, and others locally without cloud dependencies.

IMPORTANT: Always ask users for their Ollama URL. Do not assume it's running locally.

If the user says they're running Ollama locally or doesn't know the URL, suggest trying http://localhost:11434.

Utilizzalo se l'utente desidera connettersi a Ollama o sfruttare Ollama in qualsiasi forma all'interno del proprio progetto. Guida gli utenti che integrano Ollama nei loro progetti per l'inferenza dell'intelligenza artificiale locale. Copre l'installazione, la configurazione della connessione, la gestione del modello e l'utilizzo dell'API sia per Python che per Node.js. Aiuta con la generazione di testo, le interfacce di chat, gli incorporamenti, le risposte in streaming e la creazione di applicazioni basate sull'intelligenza artificiale utilizzando LLM locali. Fonte: balloob/llm-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/balloob/llm-skills --skill ollama
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-10

Browse more skills from balloob/llm-skills

Risposte rapide

Che cos'è ollama?

Utilizzalo se l'utente desidera connettersi a Ollama o sfruttare Ollama in qualsiasi forma all'interno del proprio progetto. Guida gli utenti che integrano Ollama nei loro progetti per l'inferenza dell'intelligenza artificiale locale. Copre l'installazione, la configurazione della connessione, la gestione del modello e l'utilizzo dell'API sia per Python che per Node.js. Aiuta con la generazione di testo, le interfacce di chat, gli incorporamenti, le risposte in streaming e la creazione di applicazioni basate sull'intelligenza artificiale utilizzando LLM locali. Fonte: balloob/llm-skills.

Come installo ollama?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/balloob/llm-skills --skill ollama Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/balloob/llm-skills

Dettagli

Categoria
</>Sviluppo
Fonte
skills.sh
Prima apparizione
2026-02-01