·modal-serverless-gpu
</>

modal-serverless-gpu

Piattaforma cloud GPU serverless per l'esecuzione di carichi di lavoro ML. Utilizzalo quando hai bisogno di accesso GPU on-demand senza gestione dell'infrastruttura, distribuzione di modelli ML come API o esecuzione di processi batch con dimensionamento automatico.

38Installazioni·2Tendenza·@orchestra-research

Installazione

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill modal-serverless-gpu

Come installare modal-serverless-gpu

Installa rapidamente la skill AI modal-serverless-gpu nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/orchestra-research/ai-research-skills --skill modal-serverless-gpu
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: orchestra-research/ai-research-skills.

Comprehensive guide to running ML workloads on Modal's serverless GPU cloud platform.

| App | Container for functions and resources | | Function | Serverless function with compute specs | | Cls | Class-based functions with lifecycle hooks | | Image | Container image definition | | Volume | Persistent storage for models/data | | Secret | Secure credential storage |

| modal run script.py | Execute and exit | | modal serve script.py | Development with live reload | | modal deploy script.py | Persistent cloud deployment |

Piattaforma cloud GPU serverless per l'esecuzione di carichi di lavoro ML. Utilizzalo quando hai bisogno di accesso GPU on-demand senza gestione dell'infrastruttura, distribuzione di modelli ML come API o esecuzione di processi batch con dimensionamento automatico. Fonte: orchestra-research/ai-research-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/orchestra-research/ai-research-skills --skill modal-serverless-gpu
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-11
Aggiornato
2026-03-10

Browse more skills from orchestra-research/ai-research-skills

Risposte rapide

Che cos'è modal-serverless-gpu?

Piattaforma cloud GPU serverless per l'esecuzione di carichi di lavoro ML. Utilizzalo quando hai bisogno di accesso GPU on-demand senza gestione dell'infrastruttura, distribuzione di modelli ML come API o esecuzione di processi batch con dimensionamento automatico. Fonte: orchestra-research/ai-research-skills.

Come installo modal-serverless-gpu?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/orchestra-research/ai-research-skills --skill modal-serverless-gpu Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/orchestra-research/ai-research-skills