·modal-serverless-gpu
</>

modal-serverless-gpu

orchestra-research/ai-research-skills

ML ワークロードを実行するためのサーバーレス GPU クラウド プラットフォーム。インフラストラクチャ管理を使用せずにオンデマンド GPU アクセスが必要な場合、ML モデルを API としてデプロイする場合、または自動スケーリングを使用してバッチ ジョブを実行する必要がある場合に使用します。

16インストール·1トレンド·@orchestra-research

インストール

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill modal-serverless-gpu

SKILL.md

Comprehensive guide to running ML workloads on Modal's serverless GPU cloud platform.

| App | Container for functions and resources | | Function | Serverless function with compute specs | | Cls | Class-based functions with lifecycle hooks | | Image | Container image definition | | Volume | Persistent storage for models/data | | Secret | Secure credential storage |

| modal run script.py | Execute and exit | | modal serve script.py | Development with live reload | | modal deploy script.py | Persistent cloud deployment |

ML ワークロードを実行するためのサーバーレス GPU クラウド プラットフォーム。インフラストラクチャ管理を使用せずにオンデマンド GPU アクセスが必要な場合、ML モデルを API としてデプロイする場合、または自動スケーリングを使用してバッチ ジョブを実行する必要がある場合に使用します。 ソース: orchestra-research/ai-research-skills。

原文を見る

引用可能な情報

AI/検索での引用用の安定したフィールドとコマンド。

インストールコマンド
npx skills add https://github.com/orchestra-research/ai-research-skills --skill modal-serverless-gpu
カテゴリ
</>開発ツール
認証済み
初回登録
2026-02-11
更新日
2026-02-18

クイックアンサー

modal-serverless-gpu とは?

ML ワークロードを実行するためのサーバーレス GPU クラウド プラットフォーム。インフラストラクチャ管理を使用せずにオンデマンド GPU アクセスが必要な場合、ML モデルを API としてデプロイする場合、または自動スケーリングを使用してバッチ ジョブを実行する必要がある場合に使用します。 ソース: orchestra-research/ai-research-skills。

modal-serverless-gpu のインストール方法は?

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/orchestra-research/ai-research-skills --skill modal-serverless-gpu インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります

ソースリポジトリはどこですか?

https://github.com/orchestra-research/ai-research-skills