llm-integration
✓関数呼び出し、ストリーミング応答、Ollama によるローカル推論、および微調整カスタマイズのための LLM 統合パターン。ツールの使用、SSE ストリーミング、ローカル モデルのデプロイメント、LoRA/QLoRA 微調整、またはマルチプロバイダー LLM API を実装するときに使用します。
SKILL.md
Patterns for integrating LLMs into production applications: tool use, streaming, local inference, and fine-tuning. Each category has individual rule files in rules/ loaded on-demand.
| Category | Rules | Impact | When to Use |
| Function Calling | 3 | CRITICAL | Tool definitions, parallel execution, input validation | | Streaming | 3 | HIGH | SSE endpoints, structured streaming, backpressure handling | | Local Inference | 3 | HIGH | Ollama setup, model selection, GPU optimization | | Fine-Tuning | 3 | HIGH | LoRA/QLoRA training, dataset preparation, evaluation |
関数呼び出し、ストリーミング応答、Ollama によるローカル推論、および微調整カスタマイズのための LLM 統合パターン。ツールの使用、SSE ストリーミング、ローカル モデルのデプロイメント、LoRA/QLoRA 微調整、またはマルチプロバイダー LLM API を実装するときに使用します。 ソース: yonatangross/orchestkit。
引用可能な情報
AI/検索での引用用の安定したフィールドとコマンド。
- インストールコマンド
npx skills add https://github.com/yonatangross/orchestkit --skill llm-integration- カテゴリ
- </>開発ツール
- 認証済み
- ✓
- 初回登録
- 2026-02-17
- 更新日
- 2026-02-18
クイックアンサー
llm-integration とは?
関数呼び出し、ストリーミング応答、Ollama によるローカル推論、および微調整カスタマイズのための LLM 統合パターン。ツールの使用、SSE ストリーミング、ローカル モデルのデプロイメント、LoRA/QLoRA 微調整、またはマルチプロバイダー LLM API を実装するときに使用します。 ソース: yonatangross/orchestkit。
llm-integration のインストール方法は?
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/yonatangross/orchestkit --skill llm-integration インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります
ソースリポジトリはどこですか?
https://github.com/yonatangross/orchestkit
詳細
- カテゴリ
- </>開発ツール
- ソース
- skills.sh
- 初回登録
- 2026-02-17