bedrock-inference
✓API Amazon Bedrock Runtime pour l'inférence de modèles, notamment les modèles Claude, Nova, Titan et tiers. Couvre le modèle d'invocation, l'API Converse, les réponses en continu, le comptage de jetons, l'invocation asynchrone et les garde-fous. À utiliser lors de l'appel de modèles de base, de la création d'une IA conversationnelle, de la diffusion en continu de réponses de modèles, de l'optimisation de l'utilisation des jetons ou de la mise en œuvre de garde-fous d'exécution.
Installation
SKILL.md
Amazon Bedrock Runtime provides APIs for invoking foundation models including Claude (Opus, Sonnet, Haiku), Nova (Amazon), Titan (Amazon), and third-party models (Cohere, AI21, Meta). Supports both synchronous and asynchronous inference with streaming capabilities.
Purpose: Production-grade model inference with unified API across all Bedrock models
Pattern: Task-based (independent operations for different inference modes)
API Amazon Bedrock Runtime pour l'inférence de modèles, notamment les modèles Claude, Nova, Titan et tiers. Couvre le modèle d'invocation, l'API Converse, les réponses en continu, le comptage de jetons, l'invocation asynchrone et les garde-fous. À utiliser lors de l'appel de modèles de base, de la création d'une IA conversationnelle, de la diffusion en continu de réponses de modèles, de l'optimisation de l'utilisation des jetons ou de la mise en œuvre de garde-fous d'exécution. Source : adaptationio/skrillz.
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/adaptationio/skrillz --skill bedrock-inference- Source
- adaptationio/skrillz
- Catégorie
- </>Développement
- Vérifié
- ✓
- Première apparition
- 2026-02-01
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que bedrock-inference ?
API Amazon Bedrock Runtime pour l'inférence de modèles, notamment les modèles Claude, Nova, Titan et tiers. Couvre le modèle d'invocation, l'API Converse, les réponses en continu, le comptage de jetons, l'invocation asynchrone et les garde-fous. À utiliser lors de l'appel de modèles de base, de la création d'une IA conversationnelle, de la diffusion en continu de réponses de modèles, de l'optimisation de l'utilisation des jetons ou de la mise en œuvre de garde-fous d'exécution. Source : adaptationio/skrillz.
Comment installer bedrock-inference ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/adaptationio/skrillz --skill bedrock-inference Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/adaptationio/skrillz
Détails
- Catégorie
- </>Développement
- Source
- skills.sh
- Première apparition
- 2026-02-01