SageMaker HyperPod レシピ - Amazon SageMaker AI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

SageMaker HyperPod レシピ

Amazon SageMaker HyperPod レシピは、Llama、Mistral、Mixtral、DeepSeek などのさまざまなモデルファミリーから公開されている基盤モデル (FMs) のトレーニングと微調整をすばやく開始AWSできるように、 が提供する事前設定されたトレーニングスタックです。レシピは、データセットのロード、分散トレーニング手法の適用、チェックポイントの管理など、エンドツーエンドのトレーニングループを自動化して、障害からの迅速な復旧を実現します。

SageMaker HyperPod レシピは、大規模なモデルのトレーニングに伴う複雑さの大部分を抽象化するため、深層機械学習の専門知識がないユーザーにとって特に有益です。

レシピは、SageMaker HyperPod 内で、または SageMaker トレーニングジョブとして実行できます。

次の表は SageMaker HyperPod GitHub リポジトリに保持されており、事前トレーニングとファインチューニングでサポートされているモデル、それぞれのレシピと起動スクリプト、サポートされているインスタンスタイプなどに関する最新の情報を提供しています。

  • 事前トレーニングでサポートされているモデル、レシピ、起動スクリプトの最新リストについては、「事前トレーニングの表」を参照してください。

  • 事前トレーニングでサポートされているモデル、レシピ、起動スクリプトの最新リストについては、「ファインチューニングの表」を参照してください。

SageMaker HyperPod を使用する場合、エンドツーエンドのトレーニングワークフローの自動化は、トレーニングアダプタと SageMaker HyperPod レシピの統合により提供されます。トレーニングアダプタは、NVIDIA NeMo フレームワークNeuronx 分散トレーニングパッケージを基盤に構築されています。NeMo の使用に精通している場合、トレーニングアダプタを使用するプロセスは同じです。トレーニングアダプタはクラスターでレシピを実行します。

SageMaker HyperPod レシピワークフローの説明図 上部の「レシピ」アイコンは「HyperPod レシピランチャー」ボックスにフィードされます。このボックスは、関連付けられたレシピファイルを含む 3 つの GPU アイコンを含む「Cluster: Slurm, K8s, ...」というラベルの付いたサイズが大きいセクションに接続しています。クラスターセクションの下部には「Train with HyperPod Training Adapter」というラベルが付けられています。

独自のカスタムレシピを定義して、独自のモデルをトレーニングすることもできます。

チュートリアルを使用して使用を開始するには、「チュートリアル」を参照してください。