·ollama-local
</>

ollama-local

Местный вывод LLM с Олламой. Используйте при настройке локальных моделей для разработки, конвейеров CI или сокращения затрат. Охватывает выбор модели, интеграцию LangChain и настройку производительности.

21Установки·0Тренд·@yonatangross

Установка

$npx skills add https://github.com/yonatangross/orchestkit --skill ollama-local

Как установить ollama-local

Быстро установите AI-навык ollama-local в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/yonatangross/orchestkit --skill ollama-local
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: yonatangross/orchestkit.

Run LLMs locally for cost savings, privacy, and offline development.

| Reasoning | deepseek-r1:70b | 42GB | GPT-4 level | | Coding | qwen2.5-coder:32b | 35GB | 73.7% Aider benchmark | | Embeddings | nomic-embed-text | 0.5GB | 768 dims, fast | | General | llama3.2:70b | 40GB | Good all-around |

| Cloud APIs | $675/month | 200-500ms | | Ollama Local | $50 (electricity) | 50-200ms | | Savings | 93% | 2-3x faster |

Местный вывод LLM с Олламой. Используйте при настройке локальных моделей для разработки, конвейеров CI или сокращения затрат. Охватывает выбор модели, интеграцию LangChain и настройку производительности. Источник: yonatangross/orchestkit.

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/yonatangross/orchestkit --skill ollama-local
Источник
yonatangross/orchestkit
Категория
</>Разработка
Проверено
Впервые замечено
2026-02-01
Обновлено
2026-03-11

Browse more skills from yonatangross/orchestkit

Короткие ответы

Что такое ollama-local?

Местный вывод LLM с Олламой. Используйте при настройке локальных моделей для разработки, конвейеров CI или сокращения затрат. Охватывает выбор модели, интеграцию LangChain и настройку производительности. Источник: yonatangross/orchestkit.

Как установить ollama-local?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/yonatangross/orchestkit --skill ollama-local После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/yonatangross/orchestkit

Детали

Категория
</>Разработка
Источник
skills.sh
Впервые замечено
2026-02-01