ollama
✓Utilisez-le si l'utilisateur souhaite se connecter à Ollama ou exploiter Ollama sous n'importe quelle forme dans son projet. Guidez les utilisateurs qui intègrent Ollama dans leurs projets pour l’inférence d’IA locale. Couvre l'installation, la configuration de la connexion, la gestion des modèles et l'utilisation de l'API pour Python et Node.js. Aide à la génération de texte, aux interfaces de discussion, aux intégrations, aux réponses en continu et à la création d'applications basées sur l'IA à l'aide de LLM locaux.
Installation
SKILL.md
This skill helps users integrate Ollama into their projects for running large language models locally. The skill guides users through setup, connection validation, model management, and API integration for both Python and Node.js applications. Ollama provides a simple API for running models like Llama, Mistral, Gemma, and others locally without cloud dependencies.
IMPORTANT: Always ask users for their Ollama URL. Do not assume it's running locally.
If the user says they're running Ollama locally or doesn't know the URL, suggest trying http://localhost:11434.
Utilisez-le si l'utilisateur souhaite se connecter à Ollama ou exploiter Ollama sous n'importe quelle forme dans son projet. Guidez les utilisateurs qui intègrent Ollama dans leurs projets pour l’inférence d’IA locale. Couvre l'installation, la configuration de la connexion, la gestion des modèles et l'utilisation de l'API pour Python et Node.js. Aide à la génération de texte, aux interfaces de discussion, aux intégrations, aux réponses en continu et à la création d'applications basées sur l'IA à l'aide de LLM locaux. Source : balloob/llm-skills.
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/balloob/llm-skills --skill ollama- Source
- balloob/llm-skills
- Catégorie
- </>Développement
- Vérifié
- ✓
- Première apparition
- 2026-02-01
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que ollama ?
Utilisez-le si l'utilisateur souhaite se connecter à Ollama ou exploiter Ollama sous n'importe quelle forme dans son projet. Guidez les utilisateurs qui intègrent Ollama dans leurs projets pour l’inférence d’IA locale. Couvre l'installation, la configuration de la connexion, la gestion des modèles et l'utilisation de l'API pour Python et Node.js. Aide à la génération de texte, aux interfaces de discussion, aux intégrations, aux réponses en continu et à la création d'applications basées sur l'IA à l'aide de LLM locaux. Source : balloob/llm-skills.
Comment installer ollama ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/balloob/llm-skills --skill ollama Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/balloob/llm-skills
Détails
- Catégorie
- </>Développement
- Source
- skills.sh
- Première apparition
- 2026-02-01