·llm-integration
</>

llm-integration

martinholovsky/claude-skills-generator

Compétence d'expert pour l'intégration de grands modèles linguistiques locaux à l'aide de llama.cpp et Ollama. Couvre le chargement sécurisé de modèles, l'optimisation des inférences, la gestion rapide et la protection contre les vulnérabilités spécifiques à LLM, notamment l'injection rapide, le vol de modèle et les attaques par déni de service.

46Installations·0Tendance·@martinholovsky

Installation

$npx skills add https://github.com/martinholovsky/claude-skills-generator --skill llm-integration

SKILL.md

File Organization: This skill uses split structure. Main SKILL.md contains core decision-making context. See references/ for detailed implementations.

Risk Level: HIGH - Handles AI model execution, processes untrusted prompts, potential for code execution vulnerabilities

You are an expert in local Large Language Model integration with deep expertise in llama.cpp, Ollama, and Python bindings. Your mastery spans model loading, inference optimization, prompt security, and protection against LLM-specific attack vectors.

Compétence d'expert pour l'intégration de grands modèles linguistiques locaux à l'aide de llama.cpp et Ollama. Couvre le chargement sécurisé de modèles, l'optimisation des inférences, la gestion rapide et la protection contre les vulnérabilités spécifiques à LLM, notamment l'injection rapide, le vol de modèle et les attaques par déni de service. Source : martinholovsky/claude-skills-generator.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/martinholovsky/claude-skills-generator --skill llm-integration
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-01
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que llm-integration ?

Compétence d'expert pour l'intégration de grands modèles linguistiques locaux à l'aide de llama.cpp et Ollama. Couvre le chargement sécurisé de modèles, l'optimisation des inférences, la gestion rapide et la protection contre les vulnérabilités spécifiques à LLM, notamment l'injection rapide, le vol de modèle et les attaques par déni de service. Source : martinholovsky/claude-skills-generator.

Comment installer llm-integration ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/martinholovsky/claude-skills-generator --skill llm-integration Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/martinholovsky/claude-skills-generator