翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Amazon SageMaker AI でモデルをデプロイして推論を取得するためのオプションを理解する
SageMaker AI で推論を始めるには、次のセクションを参照してください。SageMaker AI でモデルをデプロイし、推論を取得するための選択肢について説明しています。「Amazon SageMaker AI の推論オプション」セクションを参考にして、推論のユースケースに最適な機能を判断することができます。
トラブルシューティングや参考情報、使い始めるのに役立つブログや例、よく寄せられるよくある質問については、リソースセクションを参照してください。
トピック
[開始する前に]
これらのトピックは、1 つ以上の機械学習モデルを構築およびトレーニングし、それらのモデルをデプロイする準備ができていることを前提としています。SageMaker AI にモデルをデプロイして推論を得るために、SageMaker AI でモデルをトレーニングする必要はありません。独自のモデルがない場合は、SageMaker AI の組み込みアルゴリズムまたは事前トレーニング済みモデルを使用することもできます。
SageMaker AI を使用するのが初めてで、まだデプロイするモデルを決めていない場合は、「Get Started with Amazon SageMaker AI」チュートリアルの手順を一通り実行してください。このチュートリアルを通じて、SageMaker AI がデータサイエンスプロセスを管理する仕組みや、モデルデプロイを処理する仕組みを理解できます。モデルトレーニングの詳細については、「モデルのトレーニング」を参照してください。
追加情報、リファレンス、および例については、「リソース」を参照してください。
モデルをデプロイするための手順
推論エンドポイントの一般的なワークフローは以下のとおりです。
Amazon S3 に保存されているモデルアーティファクトとコンテナイメージを指定して、SageMaker AI Inference でモデルを作成します。
推論オプションを選択します。詳細については、「Amazon SageMaker AI の推論オプション」を参照してください。
エンドポイントの背後に必要なインスタンスタイプとインスタンス数を選択して、SageMaker AI Inference エンドポイント設定を作成します。Amazon SageMaker Inference Recommender を使用すると、インスタンスタイプに関する推奨事項を取得できます。サーバーレス推論の場合は、モデルサイズに基づいて必要なメモリ設定を指定するだけです。
SageMaker AI Inference エンドポイントを作成します。
エンドポイントを呼び出して、推論をレスポンスとして受け取ります。
次の図は、ここまでのワークフローを示しています。
これらのアクションは、AWS コンソール、AWS SDK、SageMaker Python SDK、CloudFormation、または AWS CLI を使用して実行できます。
バッチ変換によるバッチ推論の場合は、モデルアーティファクトと入力データを指定し、バッチ推論ジョブを作成します。SageMaker AI は、推論用のエンドポイントをホストする代わりに、選択した Amazon S3 の場所に推論結果を出力します。