·gemini-live-api-dev
</>

gemini-live-api-dev

Gemini Live API を使用してリアルタイムの双方向ストリーミング アプリケーションを構築する場合は、このスキルを使用します。 WebSocket ベースのオーディオ/ビデオ/テキスト ストリーミング、音声アクティビティ検出 (VAD)、ネイティブ オーディオ機能、関数呼び出し、セッション管理、クライアント側認証用の一時トークン、およびすべての Live API 構成オプションをカバーします。対象となる SDK - google-genai (Python)、@google/genai (JavaScript/TypeScript)。

192インストール·32トレンド·@google-gemini

インストール

$npx skills add https://github.com/google-gemini/gemini-skills --skill gemini-live-api-dev

gemini-live-api-dev のインストール方法

コマンドラインで gemini-live-api-dev AI スキルを開発環境にすばやくインストール

  1. ターミナルを開く: ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます
  2. インストールコマンドを実行: このコマンドをコピーして実行します: npx skills add https://github.com/google-gemini/gemini-skills --skill gemini-live-api-dev
  3. インストールを確認: インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります

ソース: google-gemini/gemini-skills。

The Live API enables low-latency, real-time voice and video interactions with Gemini over WebSockets. It processes continuous streams of audio, video, or text to deliver immediate, human-like spoken responses.

[!NOTE] The Live API currently only supports WebSockets. For WebRTC support or simplified integration, use a partner integration.

[!WARNING] The following Live API models are deprecated and will be shut down. Migrate to gemini-2.5-flash-native-audio-preview-12-2025. gemini-live-2.5-flash-preview — Released June 17, 2025. Shutdown: December 9, 2025.

Gemini Live API を使用してリアルタイムの双方向ストリーミング アプリケーションを構築する場合は、このスキルを使用します。 WebSocket ベースのオーディオ/ビデオ/テキスト ストリーミング、音声アクティビティ検出 (VAD)、ネイティブ オーディオ機能、関数呼び出し、セッション管理、クライアント側認証用の一時トークン、およびすべての Live API 構成オプションをカバーします。対象となる SDK - google-genai (Python)、@google/genai (JavaScript/TypeScript)。 ソース: google-gemini/gemini-skills。

引用可能な情報

AI/検索での引用用の安定したフィールドとコマンド。

インストールコマンド
npx skills add https://github.com/google-gemini/gemini-skills --skill gemini-live-api-dev
カテゴリ
</>開発ツール
認証済み
初回登録
2026-03-04
更新日
2026-03-10

Browse more skills from google-gemini/gemini-skills

クイックアンサー

gemini-live-api-dev とは?

Gemini Live API を使用してリアルタイムの双方向ストリーミング アプリケーションを構築する場合は、このスキルを使用します。 WebSocket ベースのオーディオ/ビデオ/テキスト ストリーミング、音声アクティビティ検出 (VAD)、ネイティブ オーディオ機能、関数呼び出し、セッション管理、クライアント側認証用の一時トークン、およびすべての Live API 構成オプションをカバーします。対象となる SDK - google-genai (Python)、@google/genai (JavaScript/TypeScript)。 ソース: google-gemini/gemini-skills。

gemini-live-api-dev のインストール方法は?

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/google-gemini/gemini-skills --skill gemini-live-api-dev インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります

ソースリポジトリはどこですか?

https://github.com/google-gemini/gemini-skills

詳細

カテゴリ
</>開発ツール
ソース
skills.sh
初回登録
2026-03-04