·ollama
</>

ollama

balloob/llm-skills

如果用户想要连接到 Ollama 或在其项目中以任何形状或形式利用 Ollama,请使用此选项。指导用户将Ollama集成到他们的项目中以进行本地AI推理。涵盖 Python 和 Node.js 的安装、连接设置、模型管理和 API 使用。帮助文本生成、聊天界面、嵌入、流响应以及使用本地法学硕士构建人工智能驱动的应用程序。

6安装·0热度·@balloob

安装

$npx skills add https://github.com/balloob/llm-skills --skill ollama

SKILL.md

This skill helps users integrate Ollama into their projects for running large language models locally. The skill guides users through setup, connection validation, model management, and API integration for both Python and Node.js applications. Ollama provides a simple API for running models like Llama, Mistral, Gemma, and others locally without cloud dependencies.

IMPORTANT: Always ask users for their Ollama URL. Do not assume it's running locally.

If the user says they're running Ollama locally or doesn't know the URL, suggest trying http://localhost:11434.

如果用户想要连接到 Ollama 或在其项目中以任何形状或形式利用 Ollama,请使用此选项。指导用户将Ollama集成到他们的项目中以进行本地AI推理。涵盖 Python 和 Node.js 的安装、连接设置、模型管理和 API 使用。帮助文本生成、聊天界面、嵌入、流响应以及使用本地法学硕士构建人工智能驱动的应用程序。 来源:balloob/llm-skills。

查看原文

可引用信息

为搜索与 AI 引用准备的稳定字段与命令。

安装命令
npx skills add https://github.com/balloob/llm-skills --skill ollama
分类
</>开发工具
认证
收录时间
2026-02-01
更新时间
2026-02-18

快速解答

什么是 ollama?

如果用户想要连接到 Ollama 或在其项目中以任何形状或形式利用 Ollama,请使用此选项。指导用户将Ollama集成到他们的项目中以进行本地AI推理。涵盖 Python 和 Node.js 的安装、连接设置、模型管理和 API 使用。帮助文本生成、聊天界面、嵌入、流响应以及使用本地法学硕士构建人工智能驱动的应用程序。 来源:balloob/llm-skills。

如何安装 ollama?

打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/balloob/llm-skills --skill ollama 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code 或 Cursor 中使用

这个 Skill 的源码在哪?

https://github.com/balloob/llm-skills

详情

分类
</>开发工具
来源
skills.sh
收录时间
2026-02-01