·gemini-live-api-dev
</>

gemini-live-api-dev

Nutzen Sie diese Fähigkeit, wenn Sie bidirektionale Echtzeit-Streaming-Anwendungen mit der Gemini Live API erstellen. Deckt WebSocket-basiertes Audio-/Video-/Text-Streaming, Sprachaktivitätserkennung (VAD), native Audiofunktionen, Funktionsaufrufe, Sitzungsverwaltung, kurzlebige Token für die clientseitige Authentifizierung und alle Live-API-Konfigurationsoptionen ab. Abgedeckte SDKs – google-genai (Python), @google/genai (JavaScript/TypeScript).

192Installationen·32Trend·@google-gemini

Installation

$npx skills add https://github.com/google-gemini/gemini-skills --skill gemini-live-api-dev

So installieren Sie gemini-live-api-dev

Installieren Sie den KI-Skill gemini-live-api-dev schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/google-gemini/gemini-skills --skill gemini-live-api-dev
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: google-gemini/gemini-skills.

The Live API enables low-latency, real-time voice and video interactions with Gemini over WebSockets. It processes continuous streams of audio, video, or text to deliver immediate, human-like spoken responses.

[!NOTE] The Live API currently only supports WebSockets. For WebRTC support or simplified integration, use a partner integration.

[!WARNING] The following Live API models are deprecated and will be shut down. Migrate to gemini-2.5-flash-native-audio-preview-12-2025. gemini-live-2.5-flash-preview — Released June 17, 2025. Shutdown: December 9, 2025.

Nutzen Sie diese Fähigkeit, wenn Sie bidirektionale Echtzeit-Streaming-Anwendungen mit der Gemini Live API erstellen. Deckt WebSocket-basiertes Audio-/Video-/Text-Streaming, Sprachaktivitätserkennung (VAD), native Audiofunktionen, Funktionsaufrufe, Sitzungsverwaltung, kurzlebige Token für die clientseitige Authentifizierung und alle Live-API-Konfigurationsoptionen ab. Abgedeckte SDKs – google-genai (Python), @google/genai (JavaScript/TypeScript). Quelle: google-gemini/gemini-skills.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/google-gemini/gemini-skills --skill gemini-live-api-dev
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-03-04
Aktualisiert
2026-03-10

Browse more skills from google-gemini/gemini-skills

Schnelle Antworten

Was ist gemini-live-api-dev?

Nutzen Sie diese Fähigkeit, wenn Sie bidirektionale Echtzeit-Streaming-Anwendungen mit der Gemini Live API erstellen. Deckt WebSocket-basiertes Audio-/Video-/Text-Streaming, Sprachaktivitätserkennung (VAD), native Audiofunktionen, Funktionsaufrufe, Sitzungsverwaltung, kurzlebige Token für die clientseitige Authentifizierung und alle Live-API-Konfigurationsoptionen ab. Abgedeckte SDKs – google-genai (Python), @google/genai (JavaScript/TypeScript). Quelle: google-gemini/gemini-skills.

Wie installiere ich gemini-live-api-dev?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/google-gemini/gemini-skills --skill gemini-live-api-dev Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/google-gemini/gemini-skills

Details

Kategorie
</>Entwicklung
Quelle
skills.sh
Erstes Auftreten
2026-03-04