·ollama
</>

ollama

balloob/llm-skills

Utilisez-le si l'utilisateur souhaite se connecter à Ollama ou exploiter Ollama sous n'importe quelle forme dans son projet. Guidez les utilisateurs qui intègrent Ollama dans leurs projets pour l’inférence d’IA locale. Couvre l'installation, la configuration de la connexion, la gestion des modèles et l'utilisation de l'API pour Python et Node.js. Aide à la génération de texte, aux interfaces de discussion, aux intégrations, aux réponses en continu et à la création d'applications basées sur l'IA à l'aide de LLM locaux.

6Installations·0Tendance·@balloob

Installation

$npx skills add https://github.com/balloob/llm-skills --skill ollama

SKILL.md

This skill helps users integrate Ollama into their projects for running large language models locally. The skill guides users through setup, connection validation, model management, and API integration for both Python and Node.js applications. Ollama provides a simple API for running models like Llama, Mistral, Gemma, and others locally without cloud dependencies.

IMPORTANT: Always ask users for their Ollama URL. Do not assume it's running locally.

If the user says they're running Ollama locally or doesn't know the URL, suggest trying http://localhost:11434.

Utilisez-le si l'utilisateur souhaite se connecter à Ollama ou exploiter Ollama sous n'importe quelle forme dans son projet. Guidez les utilisateurs qui intègrent Ollama dans leurs projets pour l’inférence d’IA locale. Couvre l'installation, la configuration de la connexion, la gestion des modèles et l'utilisation de l'API pour Python et Node.js. Aide à la génération de texte, aux interfaces de discussion, aux intégrations, aux réponses en continu et à la création d'applications basées sur l'IA à l'aide de LLM locaux. Source : balloob/llm-skills.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/balloob/llm-skills --skill ollama
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-01
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que ollama ?

Utilisez-le si l'utilisateur souhaite se connecter à Ollama ou exploiter Ollama sous n'importe quelle forme dans son projet. Guidez les utilisateurs qui intègrent Ollama dans leurs projets pour l’inférence d’IA locale. Couvre l'installation, la configuration de la connexion, la gestion des modèles et l'utilisation de l'API pour Python et Node.js. Aide à la génération de texte, aux interfaces de discussion, aux intégrations, aux réponses en continu et à la création d'applications basées sur l'IA à l'aide de LLM locaux. Source : balloob/llm-skills.

Comment installer ollama ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/balloob/llm-skills --skill ollama Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/balloob/llm-skills

Détails

Catégorie
</>Développement
Source
skills.sh
Première apparition
2026-02-01