bedrock-inference
✓Claude、Nova、Titan、サードパーティモデルなどのモデル推論用の Amazon Bedrock Runtime API。呼び出しモデル、converse API、ストリーミング応答、トークンカウント、非同期呼び出し、ガードレールについて説明します。基盤モデルの呼び出し、会話型 AI の構築、モデル応答のストリーミング、トークン使用の最適化、またはランタイム ガードレールの実装時に使用します。
SKILL.md
Amazon Bedrock Runtime provides APIs for invoking foundation models including Claude (Opus, Sonnet, Haiku), Nova (Amazon), Titan (Amazon), and third-party models (Cohere, AI21, Meta). Supports both synchronous and asynchronous inference with streaming capabilities.
Purpose: Production-grade model inference with unified API across all Bedrock models
Pattern: Task-based (independent operations for different inference modes)
Claude、Nova、Titan、サードパーティモデルなどのモデル推論用の Amazon Bedrock Runtime API。呼び出しモデル、converse API、ストリーミング応答、トークンカウント、非同期呼び出し、ガードレールについて説明します。基盤モデルの呼び出し、会話型 AI の構築、モデル応答のストリーミング、トークン使用の最適化、またはランタイム ガードレールの実装時に使用します。 ソース: adaptationio/skrillz。
引用可能な情報
AI/検索での引用用の安定したフィールドとコマンド。
- インストールコマンド
npx skills add https://github.com/adaptationio/skrillz --skill bedrock-inference- カテゴリ
- </>開発ツール
- 認証済み
- ✓
- 初回登録
- 2026-02-01
- 更新日
- 2026-02-18
クイックアンサー
bedrock-inference とは?
Claude、Nova、Titan、サードパーティモデルなどのモデル推論用の Amazon Bedrock Runtime API。呼び出しモデル、converse API、ストリーミング応答、トークンカウント、非同期呼び出し、ガードレールについて説明します。基盤モデルの呼び出し、会話型 AI の構築、モデル応答のストリーミング、トークン使用の最適化、またはランタイム ガードレールの実装時に使用します。 ソース: adaptationio/skrillz。
bedrock-inference のインストール方法は?
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/adaptationio/skrillz --skill bedrock-inference インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります
ソースリポジトリはどこですか?
https://github.com/adaptationio/skrillz
詳細
- カテゴリ
- </>開発ツール
- ソース
- skills.sh
- 初回登録
- 2026-02-01