·bedrock-inference
</>

bedrock-inference

adaptationio/skrillz

API Amazon Bedrock Runtime pour l'inférence de modèles, notamment les modèles Claude, Nova, Titan et tiers. Couvre le modèle d'invocation, l'API Converse, les réponses en continu, le comptage de jetons, l'invocation asynchrone et les garde-fous. À utiliser lors de l'appel de modèles de base, de la création d'une IA conversationnelle, de la diffusion en continu de réponses de modèles, de l'optimisation de l'utilisation des jetons ou de la mise en œuvre de garde-fous d'exécution.

6Installations·0Tendance·@adaptationio

Installation

$npx skills add https://github.com/adaptationio/skrillz --skill bedrock-inference

SKILL.md

Amazon Bedrock Runtime provides APIs for invoking foundation models including Claude (Opus, Sonnet, Haiku), Nova (Amazon), Titan (Amazon), and third-party models (Cohere, AI21, Meta). Supports both synchronous and asynchronous inference with streaming capabilities.

Purpose: Production-grade model inference with unified API across all Bedrock models

Pattern: Task-based (independent operations for different inference modes)

API Amazon Bedrock Runtime pour l'inférence de modèles, notamment les modèles Claude, Nova, Titan et tiers. Couvre le modèle d'invocation, l'API Converse, les réponses en continu, le comptage de jetons, l'invocation asynchrone et les garde-fous. À utiliser lors de l'appel de modèles de base, de la création d'une IA conversationnelle, de la diffusion en continu de réponses de modèles, de l'optimisation de l'utilisation des jetons ou de la mise en œuvre de garde-fous d'exécution. Source : adaptationio/skrillz.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/adaptationio/skrillz --skill bedrock-inference
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-01
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que bedrock-inference ?

API Amazon Bedrock Runtime pour l'inférence de modèles, notamment les modèles Claude, Nova, Titan et tiers. Couvre le modèle d'invocation, l'API Converse, les réponses en continu, le comptage de jetons, l'invocation asynchrone et les garde-fous. À utiliser lors de l'appel de modèles de base, de la création d'une IA conversationnelle, de la diffusion en continu de réponses de modèles, de l'optimisation de l'utilisation des jetons ou de la mise en œuvre de garde-fous d'exécution. Source : adaptationio/skrillz.

Comment installer bedrock-inference ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/adaptationio/skrillz --skill bedrock-inference Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/adaptationio/skrillz