GPU ジョブを実行する - AWS Batch

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

GPU ジョブを実行する

GPU ジョブを使用して、インスタンスの GPU を使用するジョブを実行できます。

以下の Amazon EC2 GPU ベースのインスタンスタイプがサポートされています。詳細については、Amazon EC2 G3 インスタンスAmazon EC2 G4 インスタンスAmazon EC2 G5 インスタンスAmazon EC2 G6 インスタンスAmazon EC2 P2 インスタンスAmazon EC2 P3 インスタンスAmazon EC2 P4d インスタンスAmazon EC2 P5 インスタンスAmazon EC2 P6 インスタンスAmazon EC2 Trn1 インスタンスAmazon EC2 Trn2 インスタンスAmazon EC2 Inf1インスタンスAmazon EC2 Inf2 インスタンスAmazon EC2 Dl1 インスタンスAmazon EC2 Dl2 インスタンス を参照してください。

インスタンスタイプ

GPUs

GPU メモリ

vCPU

メモリ

ネットワーク帯域幅

g3s.xlarge

1

8 GiB

4

30.5 GiB

10 Gbps

g3.4xlarge

1

8 GiB

16

122 GiB

最大 10 Gbps

g3.8xlarge

2

16 GiB

32

244 GiB

10 Gbps

g3.16xlarge

4

32 GiB

64

488 GiB

25 Gbps

g4dn.xlarge

1

16 GiB

4

16 GiB

最大 25 Gbps

g4dn.2xlarge

1

16 GiB

8

32 GiB

最大 25 Gbps

g4dn.4xlarge

1

16 GiB

16

64 GiB

最大 25 Gbps

g4dn.8xlarge

1

16 GiB

32

128 GiB

50 Gbps

g4dn.12xlarge

4

64 GiB

48

192 GiB

50 Gbps

g4dn.16xlarge

1

16 GiB

64

256 GiB

50 Gbps

g5.xlarge

1

24 GiB

4

16 GiB

最大 10 Gbps

g5.2xlarge

1

24 GiB

8

32 GiB

最大 10 Gbps

g5.4xlarge

1

24 GiB

16

64 GiB

最大 25 Gbps

g5.8xlarge

1

24 GiB

32

128 GiB

25 Gbps

g5.16xlarge

1

24 GiB

64

256 GiB

25 Gbps

g5.12xlarge

4

96 GiB

48

192 GiB

40 Gbps

g5.24xlarge

4

96 GiB

96

384 GiB

50 Gbps

g5.48xlarge

8

192 GiB

192

768 GiB

100 Gbps

g5g.xlarge

1

16 GiB

4

8 GiB

最大 10 Gbps

g5g.2xlarge

1

16 GiB

8

16 GiB

最大 10 Gbps

g5g.4xlarge

1

16 GiB

16

32 GiB

最大 10 Gbps

g5g.8xlarge

1

16 GiB

32

64 GiB

12 Gbps

g5g.16xlarge

2

32 GiB

64

128 GiB

25 Gbps

g5g.metal

2

32 GiB

64

128 GiB

25 Gbps

g6.xlarge

1

24 GiB

4

16 GiB

最大 10 Gbps

g6.2xlarge

1

24 GiB

8

32 GiB

最大 10 Gbps

g6.4xlarge

1

24 GiB

16

64 GiB

最大 25 Gbps

g6.8xlarge

1

24 GiB

32

128 GiB

25 Gbps

g6.16xlarge

1

24 GiB

64

256 GiB

25 Gbps

g6.12xlarge

4

96 GiB

48

192 GiB

40 Gbps

g6.24xlarge

4

96 GiB

96

384 GiB

50 Gbps

g6.48xlarge

8

192 GiB

192

768 GiB

100 Gbps

g6e.xlarge

1

48 GiB

4

32 GiB

最大 20 Gbps

g6e.2xlarge

1

48 GiB

8

64 GiB

最大 20 Gbps

g6e.4xlarge

1

48 GiB

16

128 GiB

20 Gbps

g6e.8xlarge

1

48 GiB

32

256 GiB

25 Gbps

g6e.16xlarge

1

48 GiB

64

512 GiB

35 Gbps

g6e.12xlarge

4

192 GiB

48

384 GiB

100 Gbps

g6e.24xlarge

4

192 GiB

96

768 GiB

200 Gbps

g6e.48xlarge

8

384 GiB

192

1536 GiB

400 Gbps

gr6.4xlarge

1

24 GiB

16

128 GiB

最大 25 Gbps

gr6.8xlarge

1

24 GiB

32

256 GiB

25 Gbps

p2.xlarge

1

12 GiB

4

61 GiB

p2.8xlarge

8

96 GiB

32

488 GiB

10 Gbps

p2.16xlarge

16

192 GiB

64

732 GiB

20 Gbps

p3.2xlarge

1

16 GiB

8

61 GiB

最大 10 Gbps

p3.8xlarge

4

64 GiB

32

244 GiB

10 Gbps

p3.16xlarge

8

128 GiB

64

488 GiB

25 Gbps

p3dn.24xlarge

8

256 GiB

96

768 GiB

100 Gbps

p4d.24xlarge

8

320 GiB

96

1152 GiB

400 Gbps

p4de.24xlarge

8

640 GiB

96

1152 GiB

400 Gbps

p5.48xlarge

8

640 GiB

192

2 TiB

3200 Gbps

p5e.48xlarge

8

1128 GiB

192

2 TiB

3200 Gbps

p5en.48xlarge

8

1128 GiB

192

2 TiB

3200 Gbps

p6-b200.48xlarge

8

1440 GiB

192

2 TiB

100 Gbps

trn1.2xlarge

1

32 GiB

8

32 GiB

最大 12.5 Gbps

trn1.32xlarge

16

512 GiB

128

512 GiB

800 Gbps

trn1n.32xlarge

16

512 GiB

128

512 GiB

1600 Gbps

trn2.48xlarge

16

1.5 TiB

192

2 TiB

3.2 Tbps

inf1.xlarge

1

8 GiB

4

8 GiB

最大 25 Gbps

inf1.2xlarge

1

8 GiB

8

16 GiB

最大 25 Gbps

inf1.6xlarge

4

32 GiB

24

48 GiB

25 Gbps

inf1.24xlarge

16

128 GiB

96

192 GiB

100 Gbps

inf2.xlarge

1

32 GiB

4

16 GiB

最大 15 Gbps

inf2.8xlarge

1

32 GiB

32

128 GiB

最大 25 Gbps

inf2.24xlarge

6

192 GiB

96

384 GiB

50 Gbps

inf2.48xlarge

12

384 GiB

192

768 GiB

100 Gbps

dl1.24xlarge

8

256 GiB

96

768 GiB

400 Gbps

dl2q.24xlarge

8

128 GiB

96

768 GiB

100 Gbps

注記

GPU ジョブでは、NVIDIA GPUs を持つインスタンスタイプ AWS Batch のみをサポートします。例えば、G4ad ファミリーは GPU スケジューリングではサポートされていません。ジョブ定義で vcpu とメモリの要件のみを定義し、Amazon ECS または Amazon EKS コンピューティング最適化 AMI、または AMD GPUs を使用するためのカスタマイズされた AMI を使用して Amazon EC2 起動テンプレートのユーザーデータをカスタマイズすることでホスト GPUs に直接アクセス AWS Batch することで、 G4adで を引き続き使用できます。 Amazon EC2

ARM64 アーキテクチャを使用するインスタンスタイプは、カスタマイズされたコードと設定によって GPU にアクセスするために AWS Batch または Amazon EC2 ユーザーデータに提供されるカスタム AMIs の GPUs ジョブでサポートされています。例えば、G5g インスタンスファミリーです。

ジョブ定義の [resourceRequirements] パラメータは、コンテナに固定される GPU の数を指定します。この GPU の数は、そのジョブの期間中にインスタンスで実行される他のジョブでは使用できません。GPU ジョブを実行するコンピューティング環境のすべてのインスタンスタイプは p6p3p4p5g3g3sg4g5g6 インスタンスファミリーのいずれかにする必要があります。これを行わないと、GPU ジョブが RUNNABLE 状態で固まる可能性があります。

GPU を使用しないジョブは GPU インスタンスで実行できます。ただし、類似の GPU 以外のインスタンスで実行するよりも、GPU インスタンスで実行する方がコストがかかる場合があります。特定の vCPU、メモリ、および所要時間によっては、このような GPU を使用しないジョブによって GPU ジョブの実行がブロックされる場合があります。