bedrock-inference
✓Amazon Bedrock Runtime API für Modellinferenz, einschließlich Claude-, Nova-, Titan- und Drittanbietermodellen. Behandelt Aufrufmodell, Reverse-API, Streaming-Antworten, Token-Zählung, asynchronen Aufruf und Leitplanken. Verwenden Sie diese Option, wenn Sie Basismodelle aufrufen, Konversations-KI erstellen, Modellantworten streamen, die Token-Nutzung optimieren oder Laufzeitleitplanken implementieren.
Installation
SKILL.md
Amazon Bedrock Runtime provides APIs for invoking foundation models including Claude (Opus, Sonnet, Haiku), Nova (Amazon), Titan (Amazon), and third-party models (Cohere, AI21, Meta). Supports both synchronous and asynchronous inference with streaming capabilities.
Purpose: Production-grade model inference with unified API across all Bedrock models
Pattern: Task-based (independent operations for different inference modes)
Amazon Bedrock Runtime API für Modellinferenz, einschließlich Claude-, Nova-, Titan- und Drittanbietermodellen. Behandelt Aufrufmodell, Reverse-API, Streaming-Antworten, Token-Zählung, asynchronen Aufruf und Leitplanken. Verwenden Sie diese Option, wenn Sie Basismodelle aufrufen, Konversations-KI erstellen, Modellantworten streamen, die Token-Nutzung optimieren oder Laufzeitleitplanken implementieren. Quelle: adaptationio/skrillz.
Fakten (zitierbereit)
Stabile Felder und Befehle für KI/Such-Zitate.
- Installationsbefehl
npx skills add https://github.com/adaptationio/skrillz --skill bedrock-inference- Quelle
- adaptationio/skrillz
- Kategorie
- </>Entwicklung
- Verifiziert
- ✓
- Erstes Auftreten
- 2026-02-01
- Aktualisiert
- 2026-02-18
Schnelle Antworten
Was ist bedrock-inference?
Amazon Bedrock Runtime API für Modellinferenz, einschließlich Claude-, Nova-, Titan- und Drittanbietermodellen. Behandelt Aufrufmodell, Reverse-API, Streaming-Antworten, Token-Zählung, asynchronen Aufruf und Leitplanken. Verwenden Sie diese Option, wenn Sie Basismodelle aufrufen, Konversations-KI erstellen, Modellantworten streamen, die Token-Nutzung optimieren oder Laufzeitleitplanken implementieren. Quelle: adaptationio/skrillz.
Wie installiere ich bedrock-inference?
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/adaptationio/skrillz --skill bedrock-inference Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Wo ist das Quell-Repository?
https://github.com/adaptationio/skrillz
Details
- Kategorie
- </>Entwicklung
- Quelle
- skills.sh
- Erstes Auftreten
- 2026-02-01