·serving-llms-vllm
</>

serving-llms-vllm

orchestra-research/ai-research-skills

Sert des LLM avec un débit élevé à l'aide de PagedAttention et du traitement par lots continu de vLLM. À utiliser lors du déploiement d'API LLM de production, de l'optimisation de la latence/débit d'inférence ou de la diffusion de modèles avec une mémoire GPU limitée. Prend en charge les points de terminaison compatibles OpenAI, la quantification (GPTQ/AWQ/FP8) et le parallélisme tensoriel.

17Installations·0Tendance·@orchestra-research

Installation

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill serving-llms-vllm

SKILL.md

vLLM achieves 24x higher throughput than standard transformers through PagedAttention (block-based KV cache) and continuous batching (mixing prefill/decode requests).

Server deployment patterns: See references/server-deployment.md for Docker, Kubernetes, and load balancing configurations.

Performance optimization: See references/optimization.md for PagedAttention tuning, continuous batching details, and benchmark results.

Sert des LLM avec un débit élevé à l'aide de PagedAttention et du traitement par lots continu de vLLM. À utiliser lors du déploiement d'API LLM de production, de l'optimisation de la latence/débit d'inférence ou de la diffusion de modèles avec une mémoire GPU limitée. Prend en charge les points de terminaison compatibles OpenAI, la quantification (GPTQ/AWQ/FP8) et le parallélisme tensoriel. Source : orchestra-research/ai-research-skills.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/orchestra-research/ai-research-skills --skill serving-llms-vllm
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-11
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que serving-llms-vllm ?

Sert des LLM avec un débit élevé à l'aide de PagedAttention et du traitement par lots continu de vLLM. À utiliser lors du déploiement d'API LLM de production, de l'optimisation de la latence/débit d'inférence ou de la diffusion de modèles avec une mémoire GPU limitée. Prend en charge les points de terminaison compatibles OpenAI, la quantification (GPTQ/AWQ/FP8) et le parallélisme tensoriel. Source : orchestra-research/ai-research-skills.

Comment installer serving-llms-vllm ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/orchestra-research/ai-research-skills --skill serving-llms-vllm Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/orchestra-research/ai-research-skills