深層学習用の構築済み SageMaker AI Docker イメージ - Amazon SageMaker AI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

深層学習用の構築済み SageMaker AI Docker イメージ

Amazon SageMaker AI は、深層学習フレームワークおよびトレーニングと推論に必要なその他の依存関係を含む、構築済みの Docker イメージを提供します。SageMaker AI が管理するビルド済み Docker イメージの完全なリストについては、「Docker Registry Paths and Example Code」を参照してください。

SageMaker AI Python SDK を使用する

SageMaker Python SDK を使用すると、次に示す一般的な深層学習フレームワークを使用して、モデルのトレーニングおよびデプロイができます。SDK のインストールおよび使用の手順については、「Amazon SageMaker Python SDK」を参照してください。次の表に、使用可能なフレームワークと、これらのフレームワークを SageMaker Python SDK で使用する方法を示します。

構築済みの SageMaker AI Docker イメージを拡張する

これらの構築済みコンテナをカスタマイズしたり、必要に応じて拡張したりできます。このカスタマイズにより、構築済みの SageMaker AI Docker イメージではサポートされていないアルゴリズムやモデルに対する追加の機能要件を処理できます。これの例については、「Fine-tuning and deploying a BERTopic model on SageMaker AI with your own scripts and dataset, by extending existing PyTorch containers」を参照してください。

構築済みのコンテナを使用して、カスタムモデル、または SageMaker AI 以外のフレームワークでトレーニングを受けたモデルをデプロイできます。プロセスの概要については、「自分で事前にトレーニングした MXNet または TensorFlow のモデルを Amazon SageMaker に導入する」を参照してください。このチュートリアルでは、トレーニングされたモデルアーティファクトを SageMaker AI に取り込み、エンドポイントでホストする方法について説明します。