翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
クイックスタート
このセクションでは、数分以内に Amazon Bedrock の使用を開始する方法を示します。OpenAI 互換 APIs Responses API と Chat Completions API、および Invoke と Converse API を使用して、推論リクエストの実行方法を示します。完全な API のリスト構築については、「」を参照してください。 APIs
ステップ 1 - AWS アカウント: AWS アカウントがすでにある場合は、このステップをスキップしてステップ 2 に進みます。AWS を初めて使用する場合は、AWS アカウントにサインアップし、手順に従ってください。
ステップ 2 - API キー: AWS アカウントを取得したら、Amazon Bedrock へのリクエストを認証するための長期 API キーを作成できます。そのためには、AWS コンソールの Amazon Bedrock サービスに移動し、長期キーを生成します。詳細については、「ビルド」章の「API キー」セクションを参照してください。
ステップ 3 - SDK を取得する: この入門ガイドを使用するには、Python がすでにインストールされている必要があります。次に、使用している APIs に応じて、関連するソフトウェアをインストールします。
- Responses/Chat Completions API
-
pip install boto3 openai
- Invoke/Converse API
-
pip install boto3
ステップ 4 - 環境変数を設定する: API キーを認証に使用するように環境を設定します。
- Responses/Chat Completions API
-
OPENAI_API_KEY="<provide your long term key>"
OPENAI_BASE_URL="https://bedrock-mantle.<your-region>.api.aws/v1"
- Invoke/Converse API
-
AWS_BEARER_TOKEN_BEDROCK="<provide your long term key>"
ステップ 5 - 最初の推論リクエストを実行する: Amazon Bedrock は 100 以上の基盤モデルをサポートしています。モデルを選択し、次の Python コードを使用して最初の推論リクエストを実行します。ファイルを として保存する bedrock-first-request.py
- Responses API
-
from openai import OpenAI
client = OpenAI()
response = client.responses.create(
model="openai.gpt-oss-120b",
input="Can you explain the features of Amazon Bedrock?"
)
print(response)
- Chat Completions API
-
from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create(
model="openai.gpt-oss-120b",
messages=[{"role": "user", "content": "Can you explain the features of Amazon Bedrock?"}]
)
print(response)
- Invoke API
-
import json
import boto3
client = boto3.client('bedrock-runtime', region_name='us-east-1')
response = client.invoke_model(
modelId='anthropic.claude-opus-4-6-v1',
body=json.dumps({
'anthropic_version': 'bedrock-2023-05-31',
'messages': [{ 'role': 'user', 'content': 'Can you explain the features of Amazon Bedrock?'}],
'max_tokens': 1024
})
)
print(json.loads(response['body'].read()))
- Converse API
-
import boto3
client = boto3.client('bedrock-runtime', region_name='us-east-1')
response = client.converse(
modelId='anthropic.claude-opus-4-6-v1',
messages=[
{
'role': 'user',
'content': [{'text': 'Can you explain the features of Amazon Bedrock?'}]
}
]
)
print(response)
コマンドを使用して Python でコードを実行します。
python3 bedrock-first-request.py
推論リクエストの出力が表示されます。
他の APIs「」を参照してください構築。