·runpod-serverless-builder
*

runpod-serverless-builder

Crea endpoint serverless RunPod pronti per la produzione con tempi di avvio a freddo ottimizzati. Da utilizzare durante la creazione o la modifica di nodi di lavoro serverless RunPod per (1) inferenza LLM basata su vLLM, (2) generazione di immagini/video ComfyUI o (3) inferenza Python personalizzata. Supporta sia i modelli cotti (avvii a freddo più veloci) che il caricamento dinamico (modelli condivisi). Genera progetti completi tra cui Dockerfile, gestori di lavoro, script di avvio e configurazione ottimizzata per una latenza minima di avvio a freddo.

4Installazioni·0Tendenza·@avivk5498

Installazione

$npx skills add https://github.com/avivk5498/my-claude-code-skills --skill runpod-serverless-builder

Come installare runpod-serverless-builder

Installa rapidamente la skill AI runpod-serverless-builder nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/avivk5498/my-claude-code-skills --skill runpod-serverless-builder
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: avivk5498/my-claude-code-skills.

Build end-to-end RunPod serverless endpoints optimized for extremely short cold start times.

If you prefer manual implementation or need to understand the patterns:

User request: "Create a RunPod endpoint for Llama 3.1 8B with the fastest possible cold starts"

Crea endpoint serverless RunPod pronti per la produzione con tempi di avvio a freddo ottimizzati. Da utilizzare durante la creazione o la modifica di nodi di lavoro serverless RunPod per (1) inferenza LLM basata su vLLM, (2) generazione di immagini/video ComfyUI o (3) inferenza Python personalizzata. Supporta sia i modelli cotti (avvii a freddo più veloci) che il caricamento dinamico (modelli condivisi). Genera progetti completi tra cui Dockerfile, gestori di lavoro, script di avvio e configurazione ottimizzata per una latenza minima di avvio a freddo. Fonte: avivk5498/my-claude-code-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/avivk5498/my-claude-code-skills --skill runpod-serverless-builder
Categoria
*Creatività
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-10

Browse more skills from avivk5498/my-claude-code-skills

Risposte rapide

Che cos'è runpod-serverless-builder?

Crea endpoint serverless RunPod pronti per la produzione con tempi di avvio a freddo ottimizzati. Da utilizzare durante la creazione o la modifica di nodi di lavoro serverless RunPod per (1) inferenza LLM basata su vLLM, (2) generazione di immagini/video ComfyUI o (3) inferenza Python personalizzata. Supporta sia i modelli cotti (avvii a freddo più veloci) che il caricamento dinamico (modelli condivisi). Genera progetti completi tra cui Dockerfile, gestori di lavoro, script di avvio e configurazione ottimizzata per una latenza minima di avvio a freddo. Fonte: avivk5498/my-claude-code-skills.

Come installo runpod-serverless-builder?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/avivk5498/my-claude-code-skills --skill runpod-serverless-builder Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/avivk5498/my-claude-code-skills

Dettagli

Categoria
*Creatività
Fonte
skills.sh
Prima apparizione
2026-02-01