·bedrock-inference
</>

bedrock-inference

adaptationio/skrillz

API de Amazon Bedrock Runtime para inferencia de modelos, incluidos Claude, Nova, Titan y modelos de terceros. Cubre el modelo de invocación, la API conversa, las respuestas de transmisión, el recuento de tokens, la invocación asíncrona y las barreras de seguridad. Úselo al invocar modelos básicos, crear IA conversacional, transmitir respuestas de modelos, optimizar el uso de tokens o implementar barreras de seguridad en tiempo de ejecución.

6Instalaciones·0Tendencia·@adaptationio

Instalación

$npx skills add https://github.com/adaptationio/skrillz --skill bedrock-inference

SKILL.md

Amazon Bedrock Runtime provides APIs for invoking foundation models including Claude (Opus, Sonnet, Haiku), Nova (Amazon), Titan (Amazon), and third-party models (Cohere, AI21, Meta). Supports both synchronous and asynchronous inference with streaming capabilities.

Purpose: Production-grade model inference with unified API across all Bedrock models

Pattern: Task-based (independent operations for different inference modes)

API de Amazon Bedrock Runtime para inferencia de modelos, incluidos Claude, Nova, Titan y modelos de terceros. Cubre el modelo de invocación, la API conversa, las respuestas de transmisión, el recuento de tokens, la invocación asíncrona y las barreras de seguridad. Úselo al invocar modelos básicos, crear IA conversacional, transmitir respuestas de modelos, optimizar el uso de tokens o implementar barreras de seguridad en tiempo de ejecución. Fuente: adaptationio/skrillz.

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/adaptationio/skrillz --skill bedrock-inference
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-01
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es bedrock-inference?

API de Amazon Bedrock Runtime para inferencia de modelos, incluidos Claude, Nova, Titan y modelos de terceros. Cubre el modelo de invocación, la API conversa, las respuestas de transmisión, el recuento de tokens, la invocación asíncrona y las barreras de seguridad. Úselo al invocar modelos básicos, crear IA conversacional, transmitir respuestas de modelos, optimizar el uso de tokens o implementar barreras de seguridad en tiempo de ejecución. Fuente: adaptationio/skrillz.

¿Cómo instalo bedrock-inference?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/adaptationio/skrillz --skill bedrock-inference Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/adaptationio/skrillz