·ollama-local
</>

ollama-local

yonatangross/orchestkit

Ollama を使用したローカル LLM 推論。開発、CI パイプライン、またはコスト削減のためにローカル モデルを設定するときに使用します。モデルの選択、LangChain の統合、パフォーマンスのチューニングについて説明します。

22インストール·0トレンド·@yonatangross

インストール

$npx skills add https://github.com/yonatangross/orchestkit --skill ollama-local

SKILL.md

Run LLMs locally for cost savings, privacy, and offline development.

| Reasoning | deepseek-r1:70b | 42GB | GPT-4 level | | Coding | qwen2.5-coder:32b | 35GB | 73.7% Aider benchmark | | Embeddings | nomic-embed-text | 0.5GB | 768 dims, fast | | General | llama3.2:70b | 40GB | Good all-around |

| Cloud APIs | $675/month | 200-500ms | | Ollama Local | $50 (electricity) | 50-200ms | | Savings | 93% | 2-3x faster |

Ollama を使用したローカル LLM 推論。開発、CI パイプライン、またはコスト削減のためにローカル モデルを設定するときに使用します。モデルの選択、LangChain の統合、パフォーマンスのチューニングについて説明します。 ソース: yonatangross/orchestkit。

原文を見る

引用可能な情報

AI/検索での引用用の安定したフィールドとコマンド。

インストールコマンド
npx skills add https://github.com/yonatangross/orchestkit --skill ollama-local
カテゴリ
</>開発ツール
認証済み
初回登録
2026-02-01
更新日
2026-02-18

クイックアンサー

ollama-local とは?

Ollama を使用したローカル LLM 推論。開発、CI パイプライン、またはコスト削減のためにローカル モデルを設定するときに使用します。モデルの選択、LangChain の統合、パフォーマンスのチューニングについて説明します。 ソース: yonatangross/orchestkit。

ollama-local のインストール方法は?

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/yonatangross/orchestkit --skill ollama-local インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります

ソースリポジトリはどこですか?

https://github.com/yonatangross/orchestkit