ollama
✓Úselo si el usuario desea conectarse a Ollama o aprovechar Ollama en cualquier forma dentro de su proyecto. Guíe a los usuarios para que integren Ollama en sus proyectos para la inferencia local de IA. Cubre la instalación, configuración de la conexión, gestión de modelos y uso de API tanto para Python como para Node.js. Ayuda con la generación de texto, interfaces de chat, incrustaciones, transmisión de respuestas y creación de aplicaciones impulsadas por IA mediante LLM locales.
Instalación
SKILL.md
This skill helps users integrate Ollama into their projects for running large language models locally. The skill guides users through setup, connection validation, model management, and API integration for both Python and Node.js applications. Ollama provides a simple API for running models like Llama, Mistral, Gemma, and others locally without cloud dependencies.
IMPORTANT: Always ask users for their Ollama URL. Do not assume it's running locally.
If the user says they're running Ollama locally or doesn't know the URL, suggest trying http://localhost:11434.
Úselo si el usuario desea conectarse a Ollama o aprovechar Ollama en cualquier forma dentro de su proyecto. Guíe a los usuarios para que integren Ollama en sus proyectos para la inferencia local de IA. Cubre la instalación, configuración de la conexión, gestión de modelos y uso de API tanto para Python como para Node.js. Ayuda con la generación de texto, interfaces de chat, incrustaciones, transmisión de respuestas y creación de aplicaciones impulsadas por IA mediante LLM locales. Fuente: balloob/llm-skills.
Datos (listos para citar)
Campos y comandos estables para citas de IA/búsqueda.
- Comando de instalación
npx skills add https://github.com/balloob/llm-skills --skill ollama- Fuente
- balloob/llm-skills
- Categoría
- </>Desarrollo
- Verificado
- ✓
- Primera vez visto
- 2026-02-01
- Actualizado
- 2026-02-18
Respuestas rápidas
¿Qué es ollama?
Úselo si el usuario desea conectarse a Ollama o aprovechar Ollama en cualquier forma dentro de su proyecto. Guíe a los usuarios para que integren Ollama en sus proyectos para la inferencia local de IA. Cubre la instalación, configuración de la conexión, gestión de modelos y uso de API tanto para Python como para Node.js. Ayuda con la generación de texto, interfaces de chat, incrustaciones, transmisión de respuestas y creación de aplicaciones impulsadas por IA mediante LLM locales. Fuente: balloob/llm-skills.
¿Cómo instalo ollama?
Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/balloob/llm-skills --skill ollama Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor
¿Dónde está el repositorio de origen?
https://github.com/balloob/llm-skills
Detalles
- Categoría
- </>Desarrollo
- Fuente
- skills.sh
- Primera vez visto
- 2026-02-01