クイックスタート - Amazon Bedrock

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

クイックスタート

このセクションでは、数分以内に Amazon Bedrock の使用を開始する方法を示します。OpenAI 互換 APIs Responses APIChat Completions API、および Invoke Converse API を使用して、推論リクエストの実行方法を示します。完全な API のリスト構築については、「」を参照してください。 APIs

ステップ 1 - AWS アカウント: AWS アカウントがすでにある場合は、このステップをスキップしてステップ 2 に進みます。AWS を初めて使用する場合は、AWS アカウントにサインアップし、手順に従ってください。

ステップ 2 - API キー: AWS アカウントを取得したら、Amazon Bedrock へのリクエストを認証するための長期 API キーを作成できます。そのためには、AWS コンソールの Amazon Bedrock サービスに移動し、長期キーを生成します。詳細については、「ビルド」章の「API キー」セクションを参照してください。

ステップ 3 - SDK を取得する: この入門ガイドを使用するには、Python がすでにインストールされている必要があります。次に、使用している APIs に応じて、関連するソフトウェアをインストールします。

Responses/Chat Completions API
pip install boto3 openai
Invoke/Converse API
pip install boto3

ステップ 4 - 環境変数を設定する: API キーを認証に使用するように環境を設定します。

Responses/Chat Completions API
OPENAI_API_KEY="<provide your long term key>" OPENAI_BASE_URL="https://bedrock-mantle.<your-region>.api.aws/v1"
Invoke/Converse API
AWS_BEARER_TOKEN_BEDROCK="<provide your long term key>"

ステップ 5 - 最初の推論リクエストを実行する: Amazon Bedrock は 100 以上の基盤モデルをサポートしています。モデルを選択し、次の Python コードを使用して最初の推論リクエストを実行します。ファイルを として保存する bedrock-first-request.py

Responses API
from openai import OpenAI client = OpenAI() response = client.responses.create( model="openai.gpt-oss-120b", input="Can you explain the features of Amazon Bedrock?" ) print(response)
Chat Completions API
from openai import OpenAI client = OpenAI() response = client.chat.completions.create( model="openai.gpt-oss-120b", messages=[{"role": "user", "content": "Can you explain the features of Amazon Bedrock?"}] ) print(response)
Invoke API
import json import boto3 client = boto3.client('bedrock-runtime', region_name='us-east-1') response = client.invoke_model( modelId='anthropic.claude-opus-4-6-v1', body=json.dumps({ 'anthropic_version': 'bedrock-2023-05-31', 'messages': [{ 'role': 'user', 'content': 'Can you explain the features of Amazon Bedrock?'}], 'max_tokens': 1024 }) ) print(json.loads(response['body'].read()))
Converse API
import boto3 client = boto3.client('bedrock-runtime', region_name='us-east-1') response = client.converse( modelId='anthropic.claude-opus-4-6-v1', messages=[ { 'role': 'user', 'content': [{'text': 'Can you explain the features of Amazon Bedrock?'}] } ] ) print(response)

コマンドを使用して Python でコードを実行します。

python3 bedrock-first-request.py

推論リクエストの出力が表示されます。

他の APIs「」を参照してください構築