·ollama
</>

ollama

balloob/llm-skills

Úselo si el usuario desea conectarse a Ollama o aprovechar Ollama en cualquier forma dentro de su proyecto. Guíe a los usuarios para que integren Ollama en sus proyectos para la inferencia local de IA. Cubre la instalación, configuración de la conexión, gestión de modelos y uso de API tanto para Python como para Node.js. Ayuda con la generación de texto, interfaces de chat, incrustaciones, transmisión de respuestas y creación de aplicaciones impulsadas por IA mediante LLM locales.

6Instalaciones·0Tendencia·@balloob

Instalación

$npx skills add https://github.com/balloob/llm-skills --skill ollama

SKILL.md

This skill helps users integrate Ollama into their projects for running large language models locally. The skill guides users through setup, connection validation, model management, and API integration for both Python and Node.js applications. Ollama provides a simple API for running models like Llama, Mistral, Gemma, and others locally without cloud dependencies.

IMPORTANT: Always ask users for their Ollama URL. Do not assume it's running locally.

If the user says they're running Ollama locally or doesn't know the URL, suggest trying http://localhost:11434.

Úselo si el usuario desea conectarse a Ollama o aprovechar Ollama en cualquier forma dentro de su proyecto. Guíe a los usuarios para que integren Ollama en sus proyectos para la inferencia local de IA. Cubre la instalación, configuración de la conexión, gestión de modelos y uso de API tanto para Python como para Node.js. Ayuda con la generación de texto, interfaces de chat, incrustaciones, transmisión de respuestas y creación de aplicaciones impulsadas por IA mediante LLM locales. Fuente: balloob/llm-skills.

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/balloob/llm-skills --skill ollama
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-01
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es ollama?

Úselo si el usuario desea conectarse a Ollama o aprovechar Ollama en cualquier forma dentro de su proyecto. Guíe a los usuarios para que integren Ollama en sus proyectos para la inferencia local de IA. Cubre la instalación, configuración de la conexión, gestión de modelos y uso de API tanto para Python como para Node.js. Ayuda con la generación de texto, interfaces de chat, incrustaciones, transmisión de respuestas y creación de aplicaciones impulsadas por IA mediante LLM locales. Fuente: balloob/llm-skills.

¿Cómo instalo ollama?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/balloob/llm-skills --skill ollama Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/balloob/llm-skills

Detalles

Categoría
</>Desarrollo
Fuente
skills.sh
Primera vez visto
2026-02-01