ollama
✓사용자가 Ollama에 연결하거나 프로젝트 내에서 어떤 형태로든 Ollama를 활용하려는 경우 이를 사용하세요. 로컬 AI 추론을 위해 Ollama를 프로젝트에 통합하는 사용자를 안내합니다. Python과 Node.js 모두에 대한 설치, 연결 설정, 모델 관리 및 API 사용을 다룹니다. 로컬 LLM을 사용하여 텍스트 생성, 채팅 인터페이스, 임베딩, 스트리밍 응답 및 AI 기반 애플리케이션 구축을 지원합니다.
SKILL.md
This skill helps users integrate Ollama into their projects for running large language models locally. The skill guides users through setup, connection validation, model management, and API integration for both Python and Node.js applications. Ollama provides a simple API for running models like Llama, Mistral, Gemma, and others locally without cloud dependencies.
IMPORTANT: Always ask users for their Ollama URL. Do not assume it's running locally.
If the user says they're running Ollama locally or doesn't know the URL, suggest trying http://localhost:11434.
사용자가 Ollama에 연결하거나 프로젝트 내에서 어떤 형태로든 Ollama를 활용하려는 경우 이를 사용하세요. 로컬 AI 추론을 위해 Ollama를 프로젝트에 통합하는 사용자를 안내합니다. Python과 Node.js 모두에 대한 설치, 연결 설정, 모델 관리 및 API 사용을 다룹니다. 로컬 LLM을 사용하여 텍스트 생성, 채팅 인터페이스, 임베딩, 스트리밍 응답 및 AI 기반 애플리케이션 구축을 지원합니다. 출처: balloob/llm-skills.
인용 가능한 정보
AI/검색 인용용 안정적인 필드와 명령어.
- 설치 명령어
npx skills add https://github.com/balloob/llm-skills --skill ollama- 카테고리
- </>개발 도구
- 인증됨
- ✓
- 최초 등록
- 2026-02-01
- 업데이트
- 2026-02-18
빠른 답변
ollama이란?
사용자가 Ollama에 연결하거나 프로젝트 내에서 어떤 형태로든 Ollama를 활용하려는 경우 이를 사용하세요. 로컬 AI 추론을 위해 Ollama를 프로젝트에 통합하는 사용자를 안내합니다. Python과 Node.js 모두에 대한 설치, 연결 설정, 모델 관리 및 API 사용을 다룹니다. 로컬 LLM을 사용하여 텍스트 생성, 채팅 인터페이스, 임베딩, 스트리밍 응답 및 AI 기반 애플리케이션 구축을 지원합니다. 출처: balloob/llm-skills.
ollama 설치 방법은?
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/balloob/llm-skills --skill ollama 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다
소스 저장소는 어디인가요?
https://github.com/balloob/llm-skills