翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
API の互換性
Amazon Bedrock は 3 つのランタイム APIs ファミリーをサポートし、それぞれ異なる統合パターンとユースケース向けに設計されています。
呼び出しファミリー: は同期単一応答呼び出しInvokeModelを処理します。 はレスポンスをリアルタイムストリームとしてInvokeModelWithResponseStream返します。 はインタラクティブアプリケーションの全二重ストリーミングInvokeModelWithBidirectionalStreamを有効にします。 AsyncInvokeは長時間実行されるリクエストを非同期に送信し、出力を Amazon S3 に保存します。
コンバースファミリー: Converseは、同期マルチターン会話用の統合されたモデルに依存しないインターフェイスを提供します。 は、ストリーミング出力と同じエクスペリエンスConverseStreamを提供します。
OpenAI 互換ファミリー: は OpenAI Chat Completions インターフェイスChatCompletionsを実装し、既存の OpenAI ベースの統合を最小限の変更で Bedrock で実行できるようにします。 ResponsesAPI は OpenAI Responses インターフェイスを実装し、組み込みツールの使用と会話履歴管理によるステートフルでエージェント的なインタラクションをサポートします。
次に、各モデルでサポートされている APIs のリストを確認します。
AI21
| モデル名 | Invoke | Converse | チャットの完了 | レスポンス |
|---|---|---|---|---|
| Jamba 1.5 Large* |
|
|
|
|
| Jamba 1.5 Mini* |
|
|
|
|
Amazon
Anthropic
| モデル名 | Invoke | Converse | チャットの完了 | レスポンス |
|---|---|---|---|---|
| Claude 3 Haiku* |
|
|
|
|
| Claude 3.5 Haiku* |
|
|
|
|
| Claude Haiku 4.5* |
|
|
|
|
| Claude Opus 4.1* |
|
|
|
|
| Claude Opus 4.5* |
|
|
|
|
| Claude Opus 4.6* |
|
|
|
|
| Claude Sonnet 4* |
|
|
|
|
| Claude Sonnet 4.5* |
|
|
|
|
| Claude Sonnet 4.6* |
|
|
|
|
Cohere
| モデル名 | Invoke | Converse | チャットの完了 | レスポンス |
|---|---|---|---|---|
| コマンド R* |
|
|
|
|
| コマンド R+* |
|
|
|
|
| Embed English |
|
|
|
|
| Embed Multilingual |
|
|
|
|
| 埋め込み v4 |
|
|
|
|
| Rerank 3.5 |
|
|
|
|
DeepSeek
| モデル名 | Invoke | Converse | チャットの完了 | レスポンス |
|---|---|---|---|---|
| DeepSeek V3.2* |
|
|
|
|
| DeepSeek-R1* |
|
|
|
|
| DeepSeek-V3.1* |
|
|
|
|
| モデル名 | Invoke | Converse | チャットの完了 | レスポンス |
|---|---|---|---|---|
| Gemma 3 12B IT* |
|
|
|
|
| Gemma 3 27B PT* |
|
|
|
|
| Gemma 3 4B IT* |
|
|
|
|
Meta
MiniMax
| モデル名 | Invoke | Converse | チャットの完了 | レスポンス |
|---|---|---|---|---|
| MiniMax M2* |
|
|
|
|
| MiniMax M2.1* |
|
|
|
|
| MiniMax M2.5* |
|
|
|
|
Mistral
| モデル名 | Invoke | Converse | チャットの完了 | レスポンス |
|---|---|---|---|---|
| 開発 2 123B* |
|
|
|
|
| Magistral Small 2509* |
|
|
|
|
| 最小 14B 3.0* |
|
|
|
|
| 最小 3 8B* |
|
|
|
|
| 最小 3B* |
|
|
|
|
| Mistral 7B Instruct* |
|
|
|
|
| 霧状大* |
|
|
|
|
| 霧状大 3* |
|
|
|
|
| 霧小* |
|
|
|
|
| Mixtral 8x7B Instruct* |
|
|
|
|
| Pixtral Large* |
|
|
|
|
| Voxtral Mini 3B 2507* |
|
|
|
|
| Voxtral Small 24B 2507* |
|
|
|
|
ムーンショット
| モデル名 | Invoke | Converse | チャットの完了 | レスポンス |
|---|---|---|---|---|
| Kimi K2 の考え方* |
|
|
|
|
| Kimi K2.5* |
|
|
|
|
NVIDIA
| モデル名 | Invoke | Converse | チャットの完了 | レスポンス |
|---|---|---|---|---|
| NVIDIA Nemotron Nano 9B v2* |
|
|
|
|
| NVIDIA Nemotron Nano 12B v2 VL BF16* |
|
|
|
|
| Nemotron Nano 3 30B* |
|
|
|
|
| NVIDIA Nemotron 3 Super 120B* |
|
|
|
|
OpenAI
| モデル名 | Invoke | Converse | チャットの完了 | レスポンス |
|---|---|---|---|---|
| GPT OSS セーフガード 120B* |
|
|
|
|
| GPT OSS セーフガード 20B* |
|
|
|
|
| gpt-oss-120b* |
|
|
|
|
| gpt-oss-20b* |
|
|
|
|
Qwen
| モデル名 | Invoke | Converse | チャットの完了 | レスポンス |
|---|---|---|---|---|
| Qwen3 235B A22B 2507* |
|
|
|
|
| Qwen3 32B* |
|
|
|
|
| Qwen3 Coder 480B A35B 命令* |
|
|
|
|
| Qwen3 Coder Next* |
|
|
|
|
| Qwen3 Next 80B A3B* |
|
|
|
|
| Qwen3 VL 235B A22B* |
|
|
|
|
| Qwen3-Coder-30B-A3B-Instruct* |
|
|
|
|
安定性
TwelveLabs
| モデル名 | Invoke | Converse | チャットの完了 | レスポンス |
|---|---|---|---|---|
| Marengo Embed 3.0 |
|
|
|
|
| Marengo Embed v2.7 |
|
|
|
|
| ペガサス v1.2 |
|
|
|
|
書き込み
| モデル名 | Invoke | Converse | チャットの完了 | レスポンス |
|---|---|---|---|---|
| パルミラビジョン 7B |
|
|
|
|
| Palmyra X4* |
|
|
|
|
| Palmyra X5* |
|
|
|
|
Z.AI
| モデル名 | Invoke | Converse | チャットの完了 | レスポンス |
|---|---|---|---|---|
| GLM 4.7* |
|
|
|
|
| GLM 4.7 フラッシュ* |
|
|
|
|
| GLM 5* |
|
|
|
|
注記
* ストリーミングサポート: アスタリスク (*) が付いたモデルはInvokeModelWithResponseStream、リアルタイムストリームとしてレスポンスを返す もサポートします。
StartAsyncInvoke をサポートするモデル
StartAsyncInvoke は、モデルが処理を完了するのを待たずに、呼び出し元がモデル呼び出しリクエストを送信し、すぐに invocationArn を受信できるようにする Amazon Bedrock ランタイム API です。ジョブはバックグラウンドで実行され、完了すると出力は発信者指定の S3 バケットに書き込まれます。その後、発信者はコンパニオン GetAsyncInvoke および ListAsyncInvokes APIs。このパターンは、大きな入力やレイテンシーの影響を受けない入力、特にビデオ、オーディオ、一括埋め込み生成を含むワークロード向けに構築されており、オープン同期接続を保持することは実用的ではありません。
どのモデルがそれをサポートするかという点で、以下のモデルは StartAsyncInvoke をサポートしています。
-
TwelveLabs Marengo Embed 2.7 (twelvelabs.marengo-embed-2-7-v1:0) — ビデオとオーディオの入力に必要です。InvokeModel はテキストとイメージのみを処理します。
-
TwelveLabs Marengo Embed 3.0 (twelvelabs.marengo-embed-3-0-v1:0) — 同じパターン。大規模なビデオ/オーディオには非同期が必要
-
Amazon Nova Reel (amazon.nova-reel-v1:0 および v1:1) — ビデオ生成は排他的に非同期であり、出力は S3 に設定されます
-
Amazon Nova マルチモーダル埋め込み (amazon.nova-2-multimodal-embeddings-v1:0) — 25MB base64 エンコードを超えるビデオ入力には非同期が必要です。同期はテキスト、画像、およびドキュメント入力で使用できます。
InvokeModelWithBidirectionalStream
InvokeModelWithBidirectionalStream は、発信者とモデルの間に永続的な全二重チャネルを確立する Amazon Bedrock ランタイム API です。これにより、音声データが両方向に同時に連続して流れるようになります。request-then-responseパターンに従う標準 API InvokeModel やさらには InvokeModelWithResponseStream APIs とは異なり、この API はセッション中に接続を開いたままにして、モデルが着信音声を着信時に処理し、生成された音声をほぼリアルタイムでストリーミングできるようにします。完全な発話が終了するのを待つ必要はありません。インタラクションは 3 つのフェーズで構成されます。 セッションの初期化 (クライアントが設定イベントを送信してストリームをセットアップする) オーディオストリーミング (キャプチャされたオーディオがエンコードされ、連続イベントストリームとして送信される)。 およびレスポンスストリーミング (モデルがユーザーの音声と合成された音声出力のテキスト文字起こしを同時に返す場合)。Amazon Bedrock API キーでInvokeModelWithBidirectionalStreamは使用できません。標準の AWS 認証情報ベースの認証が必要です。 他の Bedrock ランタイムオペレーションと比較して、より複雑なセッションライフサイクルを反映しています。
次のモデルは、この API をサポートしています。
-
Amazon Nova Sonic ファミリー: amazon.nova-sonic-v1:0 と amazon.nova-2-sonic-v1:0 はどちらも唯一の呼び出しパスとして使用します。これは、speech-to-speechアーキテクチャには、基本的に InvokeModel も Converse も提供できないライブ双方向チャネルが必要なためです。