bedrock-inference
✓API de Amazon Bedrock Runtime para inferencia de modelos, incluidos Claude, Nova, Titan y modelos de terceros. Cubre el modelo de invocación, la API conversa, las respuestas de transmisión, el recuento de tokens, la invocación asíncrona y las barreras de seguridad. Úselo al invocar modelos básicos, crear IA conversacional, transmitir respuestas de modelos, optimizar el uso de tokens o implementar barreras de seguridad en tiempo de ejecución.
Instalación
SKILL.md
Amazon Bedrock Runtime provides APIs for invoking foundation models including Claude (Opus, Sonnet, Haiku), Nova (Amazon), Titan (Amazon), and third-party models (Cohere, AI21, Meta). Supports both synchronous and asynchronous inference with streaming capabilities.
Purpose: Production-grade model inference with unified API across all Bedrock models
Pattern: Task-based (independent operations for different inference modes)
API de Amazon Bedrock Runtime para inferencia de modelos, incluidos Claude, Nova, Titan y modelos de terceros. Cubre el modelo de invocación, la API conversa, las respuestas de transmisión, el recuento de tokens, la invocación asíncrona y las barreras de seguridad. Úselo al invocar modelos básicos, crear IA conversacional, transmitir respuestas de modelos, optimizar el uso de tokens o implementar barreras de seguridad en tiempo de ejecución. Fuente: adaptationio/skrillz.
Datos (listos para citar)
Campos y comandos estables para citas de IA/búsqueda.
- Comando de instalación
npx skills add https://github.com/adaptationio/skrillz --skill bedrock-inference- Fuente
- adaptationio/skrillz
- Categoría
- </>Desarrollo
- Verificado
- ✓
- Primera vez visto
- 2026-02-01
- Actualizado
- 2026-02-18
Respuestas rápidas
¿Qué es bedrock-inference?
API de Amazon Bedrock Runtime para inferencia de modelos, incluidos Claude, Nova, Titan y modelos de terceros. Cubre el modelo de invocación, la API conversa, las respuestas de transmisión, el recuento de tokens, la invocación asíncrona y las barreras de seguridad. Úselo al invocar modelos básicos, crear IA conversacional, transmitir respuestas de modelos, optimizar el uso de tokens o implementar barreras de seguridad en tiempo de ejecución. Fuente: adaptationio/skrillz.
¿Cómo instalo bedrock-inference?
Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/adaptationio/skrillz --skill bedrock-inference Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor
¿Dónde está el repositorio de origen?
https://github.com/adaptationio/skrillz
Detalles
- Categoría
- </>Desarrollo
- Fuente
- skills.sh
- Primera vez visto
- 2026-02-01