翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
AI ワークロードのモデル実行戦略
AI アーキテクチャの中核となるのはモデル実行レイヤーです。これは、推論を実行したり、予測を強化したり、コンテンツを生成したりするコンポーネントです。 は、AI ワークロードを実行するための 2 つの強力でサーバーレス対応のパス AWS を提供します。
-
Amazon Bedrock は、生成 AI ユースケースの基盤モデル (FMs) へのアクセスを提供します。
-
Amazon SageMaker Serverless Inference を使用すると、従来の機械学習 (ML) ワークロード用にカスタムトレーニング済みモデルをスケーラブルにデプロイできます。
各 をいつ、どのように使用するかを理解することで AWS のサービス、企業はビジネスニーズと運用効率の両方に合わせて最適化できます。
Amazon Bedrock: サービスとしての基盤モデル
Amazon Bedrock は、 Anthropic (Claude)、 Meta ()Cohere、LlamaMistral、、Amazon Titan Amazon Nova などの主要な AI プロバイダーから FMs へのサーバーレスアクセスを提供するフルマネージドサービスです。インフラストラクチャのプロビジョニング、GPUs の管理、モデルの微調整を必要とせずに、シンプルな API コールを使用してこれらのモデルを操作できます。
Amazon Bedrock の主な機能は次のとおりです。
-
テキスト生成 – 要約、書き換え、コンテンツ作成、Q&A。
-
コード生成 — 自然言語からコードへ。
-
分類と抽出 – ラベル付け、解析、セマンティックタグ付け。
-
RAG ワークフロー – ナレッジベースと統合して、根拠のあるレスポンスを実現します。
-
エージェント – 自動オーケストレーションとツールの使用を有効にします。
-
マルチモーダルインテリジェンス – Amazon Nova を通じて、テキスト、画像、ビデオ全体を理解して生成します。
-
ファインチューニングと留出のサポート – Amazon Nova Premier を通じて、タスク固有のモデルをトレーニングするか、コンパクトな学生モデルを作成します。
-
階層型パフォーマンスとコスト – Amazon Nova Micro、Nova Lite、Nova Pro、Nova Premier モデルから選択して、レイテンシー、精度、価格のバランスを取ります。
Amazon Bedrock の運用上の利点は次のとおりです。
-
モデル管理 – モデルのホスティングやバージョニングは必要ありません。
-
安全なデータ処理 – 分離されたテナント環境であり、ユーザーデータのトレーニングはありません。
-
トークンベースの請求 – 予測可能なコストモデリングを提供します。
-
マルチモーダル API 統合 – 同じ Amazon Bedrock インターフェイスを介してイメージ、ビデオ、テキスト間の入出力を処理します。
-
低レイテンシーオプション – エッジおよびユーザー向けの生成 AI アプリケーションに最適な Amazon Nova Micro および Nova Lite で使用できます。
-
エンタープライズグラウンディングの互換性 – すべての Amazon Nova モデルは、Amazon Bedrock ナレッジベースおよび検索拡張生成 (RAG) アーキテクチャと互換性があります。
Amazon Bedrock は、次の方法で他の AWS のサービス および 機能と統合します。
-
Lambda、Step Functions、または API Gateway からトリガーされます
-
目標駆動型オーケストレーションのための Amazon Bedrock エージェントとの統合
-
Amazon Bedrock ナレッジベースと RAG パイプラインとシームレスに連携
Amazon Bedrock の理想的なユースケース
Amazon Bedrock は、次のようなさまざまなシナリオに適しています。
-
生成 AI タスク - マーケティングコンテンツとドキュメントを作成し、チャットボットを強化します。
-
会話アシスタント - サポートボットと内部副操縦士を構築します。
-
ナレッジの取得 – 要約およびセマンティック検索タスクに使用します。
-
動的計画 - エージェントベースの決定システムを強化します。
-
マルチモーダル生成 – Amazon Nova Canvas を使用して画像を生成し、Amazon Nova Reel を使用してプロンプトや構造化コンテキストからビデオを生成します。
-
エンタープライズアシスタント – Amazon Nova Pro を使用して、専有データに基づく目標主導型の意思決定ツールを有効にします。
-
リアルタイムのユーザーエクスペリエンスフィードバック - Amazon Nova Micro を使用して、100 ミリ秒未満のレイテンシーで顧客のアクションを分析して対応します。
Amazon SageMaker Serverless Inference: カスタムモデルホスティング
Amazon SageMaker Serverless Inference はXGBoost、独自のモデル (、、PyTorchScikit-learn、 など) をトレーニングした開発者やデータサイエンティスト向けに設計されていますTensorFlow。SageMaker Serverless Inference を使用すると、スケーラブルなサーバーレス環境にモデルをデプロイできます。
Amazon Bedrock とは異なり、SageMaker Serverless Inference ではモデルアーキテクチャ、トレーニングデータ、ロジックを制御できます。
SageMaker Serverless Inference の主な機能は次のとおりです。
-
分類、回帰、自然言語処理 (NLP)、予測などの従来の ML モデルをホストします
-
マルチモデルエンドポイントをサポート
-
自動スケーリングをサポートしているため、コンピューティングがオンデマンドでプロビジョニングされ、アイドル時にシャットダウンされます。
-
カスタムコンテナイメージまたは構築済みの ML フレームワークで推論を実行します
SageMaker Serverless Inference の運用上の利点は次のとおりです。
-
アイドルコストゼロのPay-per-inference
-
完全マネージド型エンドポイントとサーバー設定なし
-
トレーニングパイプラインとノートブックとの統合
SageMaker Serverless Inference は、次の方法で他の AWS のサービス および 機能と統合されます。
-
AWS Lambda Step Functions、または SDK および API コールを使用して呼び出されます
-
end-to-end機械学習オペレーション (MLOps) で SageMaker Pipelines と連携
-
Amazon CloudWatch と統合されたログとメトリクス
SageMaker Serverless Inference の理想的なユースケース
SageMaker Serverless Inference は、さまざまな機械学習アプリケーションに適しています。
-
予測分析 - 販売予測モデルと解約予測モデルに使用します。
-
テキスト分類 - スパム検出や感情分析などのタスクをサポートします。
-
画像分類 - ドキュメント光学文字認識 (OCR) および医療画像アプリケーションを有効にします。
-
カスタム自然言語処理 (NLP) - エンティティ認識タスクとドキュメントタグ付けタスクを処理します。
Amazon Bedrock と SageMaker Serverless Inference の選択
Amazon Bedrock と SageMaker Serverless Inference はどちらも、スケーラブルで本番環境に対応した AI 実行へのサーバーレスパスを提供します。これらを組み合わせることで、最新のイベント駆動型のサーバーレス AI アーキテクチャのコア実行レイヤーを形成します AWS。次の表は、これらのサービスを主要なディメンション間で比較したものです。
ディメンション |
Amazon Bedrock |
SageMaker サーバーレス推論 |
|---|---|---|
モデルタイプ |
基盤モデル (LLMs) |
カスタムトレーニング済みの ML モデル |
セットアップの労力 |
最小 (トレーニングやホスティングなし) |
モデルのトレーニングとパッケージングが必要 |
ユースケース |
生成、会話、セマンティック |
予測データ、数値データ、構造化データ |
スケーラビリティ |
フルサーバーレスおよび自動スケーリング |
フルサーバーレスおよび自動スケーリング |
コストモデル |
トークンあたりの支払い |
推論あたりの支払い |
統合 |
API Gateway、Lambda、Amazon Bedrock エージェント、および RAG |
Lambda、Step Functions、CI/CD パイプライン |
チューニングが必要 |
なし (ゼロショットまたは数ショット) |
フルコントロール (ハイパーパラメータと再トレーニング) |
適切なサービスの選択は、AI ワークロードの性質によって異なります。
-
セマンティックな柔軟性、目標駆動型ワークフロー、基盤モデルによる迅速な反復が必要な場合は、Amazon Bedrock を使用します。
-
独自のモデル、構造化された入力がある場合、またはトレーニングとデプロイを完全に制御する必要がある場合は、SageMaker Serverless Inference を使用します。
-
SageMaker JumpStart を使用して、TensorFlowHub、Hub、、 PyTorch Hugging Faceなどのモデルハブから事前トレーニング済みのモデルを含む数百の組み込みアルゴリズムから選択しますMxNet GluonCV。