翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Amazon SageMaker AI のモデルデプロイオプション
機械学習モデルをトレーニングした後、Amazon SageMaker AI を使用してデプロイし、予測を取得できます。Amazon SageMaker AI では、ユースケースに応じて、以下の方法でモデルをデプロイできます。
-
一度に 1 つの予測を行う永続的なリアルタイムエンドポイントの場合は、SageMaker AI リアルタイムホスティングサービスを使用します。「リアルタイム推論」を参照してください。
-
トラフィックのスパイク間にアイドル期間があり、コールドスタートを許容できるワークロードは、サーバーレス推論を使用します。「Amazon SageMaker Serverless Inference を使用してモデルをデプロイする」を参照してください。
-
1 GB までの大きなペイロードサイズ、長い処理時間、ほぼリアルタイムのレイテンシー要件を持つリクエストでは、Amazon SageMaker 非同期推論を使用します。「非同期推論」を参照してください。
-
データセット全体の予測を取得するには、SageMaker AI のバッチ変換を使用します。「Amazon SageMaker AI による推論のためのバッチ変換」を参照してください。
SageMaker AI は、機械学習モデルをデプロイする際にリソースを管理し、推論性能を最適化する機能も提供します。
-
エッジデバイスのフリートで機械学習モデルを最適化、保護、モニタリング、保守できるようにエッジデバイス上のモデルを管理するには、「SageMaker Edge Manager を使用したエッジでのモデルのデプロイ」を参照してください。これは、スマートカメラ、ロボット、パーソナルコンピュータ、モバイルデバイスなどのエッジデバイスに適用されます。
-
Ambarella、ARM、Intel、Nvidia、NXP、Qualcomm、Texas Instruments、Xilinx のプロセッサをベースとする Android、Linux、Windows マシンで推論を行うために、Gluon、Keras、MXNet、PyTorch、TensorFlow-Lite、ONNX モデルを最適化するには、「SageMaker Neo によるモデルパフォーマンスの最適化」を参照してください。
これらすべてのデプロイオプションの詳細については、「推論のためのモデルをデプロイする」を参照してください。