ollama-local
✓Ollama を使用したローカル LLM 推論。開発、CI パイプライン、またはコスト削減のためにローカル モデルを設定するときに使用します。モデルの選択、LangChain の統合、パフォーマンスのチューニングについて説明します。
SKILL.md
Run LLMs locally for cost savings, privacy, and offline development.
| Reasoning | deepseek-r1:70b | 42GB | GPT-4 level | | Coding | qwen2.5-coder:32b | 35GB | 73.7% Aider benchmark | | Embeddings | nomic-embed-text | 0.5GB | 768 dims, fast | | General | llama3.2:70b | 40GB | Good all-around |
| Cloud APIs | $675/month | 200-500ms | | Ollama Local | $50 (electricity) | 50-200ms | | Savings | 93% | 2-3x faster |
Ollama を使用したローカル LLM 推論。開発、CI パイプライン、またはコスト削減のためにローカル モデルを設定するときに使用します。モデルの選択、LangChain の統合、パフォーマンスのチューニングについて説明します。 ソース: yonatangross/orchestkit。
引用可能な情報
AI/検索での引用用の安定したフィールドとコマンド。
- インストールコマンド
npx skills add https://github.com/yonatangross/orchestkit --skill ollama-local- カテゴリ
- </>開発ツール
- 認証済み
- ✓
- 初回登録
- 2026-02-01
- 更新日
- 2026-02-18
クイックアンサー
ollama-local とは?
Ollama を使用したローカル LLM 推論。開発、CI パイプライン、またはコスト削減のためにローカル モデルを設定するときに使用します。モデルの選択、LangChain の統合、パフォーマンスのチューニングについて説明します。 ソース: yonatangross/orchestkit。
ollama-local のインストール方法は?
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/yonatangross/orchestkit --skill ollama-local インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります
ソースリポジトリはどこですか?
https://github.com/yonatangross/orchestkit
詳細
- カテゴリ
- </>開発ツール
- ソース
- skills.sh
- 初回登録
- 2026-02-01