·ollama
</>

ollama

Используйте это, если пользователь хочет подключиться к Ollama или использовать Ollama в любой форме внутри своего проекта. Помогите пользователям интегрировать Ollama в свои проекты для получения локальных выводов ИИ. Охватывает установку, настройку подключения, управление моделями и использование API для Python и Node.js. Помогает с генерацией текста, интерфейсами чата, встраиванием, потоковой передачей ответов и созданием приложений на базе искусственного интеллекта с использованием локальных LLM.

12Установки·1Тренд·@balloob

Установка

$npx skills add https://github.com/balloob/llm-skills --skill ollama

Как установить ollama

Быстро установите AI-навык ollama в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/balloob/llm-skills --skill ollama
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: balloob/llm-skills.

This skill helps users integrate Ollama into their projects for running large language models locally. The skill guides users through setup, connection validation, model management, and API integration for both Python and Node.js applications. Ollama provides a simple API for running models like Llama, Mistral, Gemma, and others locally without cloud dependencies.

IMPORTANT: Always ask users for their Ollama URL. Do not assume it's running locally.

If the user says they're running Ollama locally or doesn't know the URL, suggest trying http://localhost:11434.

Используйте это, если пользователь хочет подключиться к Ollama или использовать Ollama в любой форме внутри своего проекта. Помогите пользователям интегрировать Ollama в свои проекты для получения локальных выводов ИИ. Охватывает установку, настройку подключения, управление моделями и использование API для Python и Node.js. Помогает с генерацией текста, интерфейсами чата, встраиванием, потоковой передачей ответов и созданием приложений на базе искусственного интеллекта с использованием локальных LLM. Источник: balloob/llm-skills.

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/balloob/llm-skills --skill ollama
Источник
balloob/llm-skills
Категория
</>Разработка
Проверено
Впервые замечено
2026-02-01
Обновлено
2026-03-10

Browse more skills from balloob/llm-skills

Короткие ответы

Что такое ollama?

Используйте это, если пользователь хочет подключиться к Ollama или использовать Ollama в любой форме внутри своего проекта. Помогите пользователям интегрировать Ollama в свои проекты для получения локальных выводов ИИ. Охватывает установку, настройку подключения, управление моделями и использование API для Python и Node.js. Помогает с генерацией текста, интерфейсами чата, встраиванием, потоковой передачей ответов и созданием приложений на базе искусственного интеллекта с использованием локальных LLM. Источник: balloob/llm-skills.

Как установить ollama?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/balloob/llm-skills --skill ollama После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/balloob/llm-skills

Детали

Категория
</>Разработка
Источник
skills.sh
Впервые замечено
2026-02-01

Похожие навыки