翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
インポートしたモデルを呼び出す
モデルのインポートジョブでは、CreateModelImportJob リクエストを送信した後、モデルがインポートされるまでに数分かかる場合があります。インポートジョブのステータスは、コンソールで確認するか、GetModelImportJob オペレーションを呼び出してレスポンスの Statusフィールドで確認できます。モデルのステータスが Complete の場合、インポートジョブは完了しています。
インポートしたモデルを Amazon Bedrock で利用できる状態になったら、オンデマンドスループットでそのモデルを使用できます。その場合は、InvokeModel または InvokeModelWithResponseStream リクエストを送信して、モデルに対して推論呼び出しを行います。詳細については、「InvokeModel で 1 つのプロンプトを送信する」を参照してください。
メッセージ形式を使用してインポートしたモデルとのインターフェイスを取るには、Converse または ConverseStream オペレーションを呼び出します。詳細については、「Converse API を使用する場合」を参照してください。
注記
Converse API は、Qwen2.5、Qwen2-VL, Qwen2.5-VL、および GPT-OSSモデルではサポートされていません。
拡張 API サポート: 複数の API 形式
2025 年 11 月 17 日以降、Amazon Bedrock Custom Model Import は包括的な OpenAI 互換 API 形式をサポートし、カスタムモデルの統合とデプロイの方法を柔軟に実現します。2025 年 11 月 11 日以降にインポートされたすべてのモデルは、これらの拡張機能を自動的に活用でき、追加の設定は必要ありません。
カスタムモデルインポートが 3 つの API 形式をサポートするようになりました。
BedrockCompletion (テキスト) - 現在の Bedrock ワークフローと互換性があります
OpenAICompletion (テキスト) - OpenAI Completions スキーマの互換性
OpenAIChatCompletion (テキストとイメージ) - 会話型スキーマの完全互換性
これらの拡張機能には、JSON スキーマとパターンを適用するための構造化された出力、マルチイメージ処理によるビジョンのサポートの強化、モデル信頼度インサイトのログ確率、GPT-OSSモデルのツール呼び出し機能が含まれます。
API リファレンスドキュメントの詳細については、公式の OpenAI ドキュメントを参照してください。
ChatCompletion: OpenAI Chat API
API 形式の例
次の例は、インポートされたモデルでサポートされている 4 つの API 形式を使用する方法を示しています。
新しくインポートしたモデルに対して推論呼び出しを行うには、モデルの ARN が必要です。インポートジョブが正常に完了し、インポートしたモデルがアクティブになったら、そのモデルの ARN をコンソールで取得するか、または ListImportedModels リクエストを送信して取得できます。
InvokeModel または InvokeModelWithStream を使用してインポートしたモデルを呼び出す場合、リクエストが 5 分以内に処理されるか、ModelNotReadyException が発生する可能性があります。ModelNotReadyException を理解するには、次のセクションの ModelNotreadyException の処理手順に従ってください。
よくある質問
Q: どの API 形式を使用する必要がありますか?
A: さまざまな SDKs との互換性を最大限に高めるには、OpenAICompletion 形式または OpenAIChatCompletion 形式を使用することをお勧めします。これらは、さまざまなツールやライブラリで広くサポートされている OpenAI 互換スキーマを提供するためです。
Q: GPT-OSS on Amazon Bedrock Custom Model Import は Converse API をサポートしていますか?
A: いいえ。 GPT-OSSベースのカスタムモデルのインポートモデルは、Converse API または ConverseStream API をサポートしていません。GPT-OSS ベースのカスタムモデルを使用する場合は、OpenAI 互換スキーマで InvokeModel API を使用する必要があります。
Q: ツール呼び出しをサポートするモデルは何ですか?
A: GPT-OSSベースのカスタムモデルは、ツール呼び出し機能をサポートしています。ツール呼び出しにより、複雑なワークフローの関数呼び出しが可能になります。
Q: 2025 年 11 月 11 日より前にインポートされたモデルについてはどうですか?
A: 2025 年 11 月 11 日より前にインポートされたモデルは、既存の API 形式と機能でそのまま動作し続けます。
Q: OpenAI ベースのモデルgeneration_config.jsonの場合はどうなりますか?
A: などの OpenAI ベースのモデルをインポートするときは、正しいgeneration_config.jsonファイルを含めることが重要ですGPT-OSS。https://huggingface.co/openai/gpt-oss-20b/blob/main/generation_config.json[200002, 199999, 200012]) が含まれていますが、古いバージョンには 2 つのトークン () のみが含まれていました[200002, 199999]。古いgeneration_config.jsonファイルを使用すると、モデルの呼び出し中にランタイムエラーが発生します。このファイルは適切なモデル動作に不可欠であり、OpenAI ベースのモデルインポートに含める必要があります。
ModelNotReadyException の処理
Amazon Bedrock Custom Model Import は、アクティブでないモデルを削除することで、ハードウェア使用率を最適化します。削除されたモデルを呼び出そうとすると、ModelNotReadyException が発生します。モデルが削除された後、そのモデルを初めて呼び出すと、Custom Model Import はモデルの復元を開始します。復元時間は、オンデマンドフリートのサイズとモデルサイズによって異なります。
InvokeModel または InvokeModelWithStream リクエストから ModelNotReadyException が返された場合は、例外を処理する手順に従ってください。
-
再試行を設定する
デフォルトでは、リクエストはエクスポネンシャルバックオフで自動的に再試行されます。再試行回数の上限を設定することができます。
次のサンプルコードは、再試行の設定方法を示しています。
${region-name}、${model-arn}、10は、それぞれ実際のリージョン、モデル ARN、最大試行回数に置き換えてください。import json import boto3 from botocore.config import Config REGION_NAME =${region-name}MODEL_ID= '${model-arn}' config = Config( retries={ 'total_max_attempts':10, //customizable 'mode': 'standard' } ) message = "Hello" session = boto3.session.Session() br_runtime = session.client(service_name = 'bedrock-runtime', region_name=REGION_NAME, config=config) try: invoke_response = br_runtime.invoke_model(modelId=MODEL_ID, body=json.dumps({'prompt': message}), accept="application/json", contentType="application/json") invoke_response["body"] = json.loads(invoke_response["body"].read().decode("utf-8")) print(json.dumps(invoke_response, indent=4)) except Exception as e: print(e) print(e.__repr__()) -
再試行中にレスポンスコードをモニタリングする
再試行のたびに、モデルの復元プロセスが開始されます。復元時間は、オンデマンドフリートの可用性とモデルサイズによって異なります。復元プロセスの進行中にレスポンスコードをモニタリングしてください。
再試行が一貫して失敗する場合は、次の手順に進みます。
-
モデルが正常にインポートされたことを確認する
モデルが正常にインポートされたかどうかは、コンソールでインポートジョブのステータスを確認するか、GetModelImportJob オペレーションを呼び出すことで確認できます。レスポンスの
Statusフィールドを確認します。モデルのステータスが Complete の場合、インポートジョブは成功しています。 -
詳細な調査サポートについては、 にお問い合わせください。
でチケットを開く サポート詳細については、「サポートケースの作成」を参照してください。
サポートチケットにはモデル ID やタイムスタンプなどの関連する詳細を含めます。