·bedrock-inference
</>

bedrock-inference

adaptationio/skrillz

Amazon Bedrock Runtime API für Modellinferenz, einschließlich Claude-, Nova-, Titan- und Drittanbietermodellen. Behandelt Aufrufmodell, Reverse-API, Streaming-Antworten, Token-Zählung, asynchronen Aufruf und Leitplanken. Verwenden Sie diese Option, wenn Sie Basismodelle aufrufen, Konversations-KI erstellen, Modellantworten streamen, die Token-Nutzung optimieren oder Laufzeitleitplanken implementieren.

6Installationen·0Trend·@adaptationio

Installation

$npx skills add https://github.com/adaptationio/skrillz --skill bedrock-inference

SKILL.md

Amazon Bedrock Runtime provides APIs for invoking foundation models including Claude (Opus, Sonnet, Haiku), Nova (Amazon), Titan (Amazon), and third-party models (Cohere, AI21, Meta). Supports both synchronous and asynchronous inference with streaming capabilities.

Purpose: Production-grade model inference with unified API across all Bedrock models

Pattern: Task-based (independent operations for different inference modes)

Amazon Bedrock Runtime API für Modellinferenz, einschließlich Claude-, Nova-, Titan- und Drittanbietermodellen. Behandelt Aufrufmodell, Reverse-API, Streaming-Antworten, Token-Zählung, asynchronen Aufruf und Leitplanken. Verwenden Sie diese Option, wenn Sie Basismodelle aufrufen, Konversations-KI erstellen, Modellantworten streamen, die Token-Nutzung optimieren oder Laufzeitleitplanken implementieren. Quelle: adaptationio/skrillz.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/adaptationio/skrillz --skill bedrock-inference
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-01
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist bedrock-inference?

Amazon Bedrock Runtime API für Modellinferenz, einschließlich Claude-, Nova-, Titan- und Drittanbietermodellen. Behandelt Aufrufmodell, Reverse-API, Streaming-Antworten, Token-Zählung, asynchronen Aufruf und Leitplanken. Verwenden Sie diese Option, wenn Sie Basismodelle aufrufen, Konversations-KI erstellen, Modellantworten streamen, die Token-Nutzung optimieren oder Laufzeitleitplanken implementieren. Quelle: adaptationio/skrillz.

Wie installiere ich bedrock-inference?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/adaptationio/skrillz --skill bedrock-inference Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/adaptationio/skrillz