GPU ジョブを実行する - AWS Batch

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

GPU ジョブを実行する

GPU ジョブを使用して、インスタンスの GPU を使用するジョブを実行できます。

以下の Amazon EC2 GPU ベースのインスタンスタイプがサポートされています。詳細については、Amazon EC2 G3 インスタンスAmazon EC2 G4 インスタンスAmazon EC2 G5 インスタンスAmazon EC2 G6 インスタンスAmazon EC2 P2 インスタンスAmazon EC2 P3 インスタンスAmazon EC2 P4d インスタンスAmazon EC2 P5 インスタンスAmazon EC2 P6 インスタンスAmazon EC2 Trn1 インスタンスAmazon EC2 Trn2 インスタンスAmazon EC2 Inf1インスタンス、Amazon EC2 Inf2、Amazon EC2 インスタンスAmazon EC2 Dl1 インスタンス、および Amazon EC2 Dl2 インスタンスを参照してください。

インスタンスタイプ

GPU

GPU メモリ

vCPUs

メモリ

ネットワーク帯域幅

g3s.xlarge

1

8 GiB

4

30.5 GiB

10 Gbps

g3.4xlarge

1

8 GiB

16

122 GiB

最大 10 Gbps

g3.8xlarge

2

16 GiB

32

244 GiB

10 Gbps

g3.16xlarge

4

32 GiB

64

488 GiB

25 Gbps

g4dn.xlarge

1

16 GiB

4

16 GiB

最大 25 Gbps

g4dn.2xlarge

1

16 GiB

8

32 GiB

最大 25 Gbps

g4dn.4xlarge

1

16 GiB

16

64 GiB

最大 25 Gbps

g4dn.8xlarge

1

16 GiB

32

128 GiB

50 Gbps

g4dn.12xlarge

4

64 GiB

48

192 GiB

50 Gbps

g4dn.16xlarge

1

16 GiB

64

256 GiB

50 Gbps

g5.xlarge

1

24 GiB

4

16 GiB

最大 10 Gbps

g5.2xlarge

1

24 GiB

8

32 GiB

最大 10 Gbps

g5.4xlarge

1

24 GiB

16

64 GiB

最大 25 Gbps

g5.8xlarge 

1

24 GiB

32

128 GiB

25 Gbps

g5.16xlarge

1

24 GiB

64

256 GiB

25 Gbps

g5.12xlarge

4

96 GiB

48

192 GiB

40 Gbps

g5.24xlarge

4

96 GiB

96

384 GiB

50 Gbps

g5.48xlarge

8

192 GiB

192

768 GiB

100 Gbps

g5g.xlarge

1

16 GB

4

8 GB

最大 10 Gbps

g5g.2xlarge

1

16 GB

8

16 GB

最大 10 Gbps

g5g.4xlarge

1

16 GB

16

32 GB

最大 10 Gbps

g5g.8xlarge

1

16 GB

32

64 GB

12 Gbps

g5g.16xlarge

2

32 GB

64

128 GB

25 Gbps

g5g.metal

2

32 GB

64

128 GB

25 Gbps

g6.xlarge

1

24 GiB

4

16 GiB

最大 10 Gbps

g6.2xlarge

1

24 GiB

8

32 GiB

最大 10 Gbps

g6.4xlarge

1

24 GiB

16

64 GiB

最大 25 Gbps

g6.8xlarge

1

24 GiB

32

128 GiB

25 Gbps

g6.16xlarge

1

24 GiB

64

256 GiB

25 Gbps

g6.12xlarge

4

96 GiB

48

192 GiB

40 Gbps

g6.24xlarge

4

96 GiB

96

384 GiB

50 Gbps

g6.48xlarge

8

192 GiB

192

768 GiB

100 Gbps

g6e.xlarge

1

48 GB

4

32 GB

最大 20 Gbps

g6e.2xlarge

1

48 GB

8

64 GB

最大 20 Gbps

g6e.4xlarge

1

48 GB

16

128 GB

20 Gbps

g6e.8xlarge

1

48 GB

32

256 GB

25 Gbps

g6e.16xlarge

1

48 GB

64

512 GB

35 Gbps

g6e.12xlarge

4

192 GB

48

384 GB

100 Gbps

g6e.24xlarge

4

192 GB

96

768 GB

200 Gbps

g6e.48xlarge

8

384 GB

192

1536 GB

400 Gbps

gr6.4xlarge

1

24 GB

16

128 GB

最大 25 Gbps

gr6.8xlarge

1

24 GB

32

256 GB

25 Gbps

p2.xlarge

1

12 GiB

4

61 GiB

p2.8xlarge

8

96 GiB

32

488 GiB

10 Gbps

p2.16xlarge

16

192 GiB

64

732 GiB

20 Gbps

p3.2xlarge

1

16 GiB

8

61 GiB

最大 10 Gbps

p3.8xlarge

4

64 GiB

32

244 GiB

10 Gbps

p3.16xlarge

8

128 GiB

64

488 GiB

25 Gbps

p3dn.24xlarge

8

256 GiB

96

768 GiB

100 Gbps

p4d.24xlarge

8

320 GB

96

1152 GB

400 Gbps

p4de.24xlarge

8

640 GB

96

1152 GB

400 Gbps

p5.48xlarge

8

640 GiB

192

2 TiB

3200 Gbps

p5e.48xlarge

8

1128 GB

192

2 TB

3200 Gbps

p5en.48xlarge

8

1128 GB

192

2 TB

3200 Gbps

p6-b200.48xlarge

8

1440 GB

192

2 TB

100 Gbps

trn1.2xlarge

1

32 GB

8

32 GB

最大 12.5 Gbps

trn1.32xlarge

16

512 GB

128

512 GB

800 Gbps

trn1n.32xlarge

16

512 GB

128

512 GB

1600 Gbps

trn2.48xlarge

16

1.5 TB

192

2 TB

3.2 Tbps

inf1.xlarge

1

8 GB

4

8 GB

最大 25 Gbps

inf1.2xlarge

1

8 GB

8

16 GB

最大 25 Gbps

inf1.6xlarge

4

32 GB

24

48 GB

25 Gbps

inf1.24xlarge

16

128 GB

96

192 GB

100 Gbps

inf2.xlarge

1

32 GB

4

16 GB

最大 15 Gbps

inf2.8xlarge

1

32 GB

32

128 GB

最大 25 Gbps

inf2.24xlarge

6

192 GB

96

384 GB

50 Gbps

inf2.48xlarge

12

384 GB

192

768 GB

100 Gbps

dl1.24xlarge

8

256 GB

96

768 GB

400 Gbps

dl2q.24xlarge

8

128 GB

96

768 GB

100 Gbps

注記

GPU ジョブでは、NVIDIA GPUs を持つインスタンスタイプ AWS Batch のみをサポートします。たとえば、 G4adファミリーは GPU スケジューリングではサポートされていません。ジョブ定義で vcpu とメモリの要件のみを定義し、Amazon ECS または Amazon EKS コンピューティング最適化 AMI、または AMD GPUs を使用するためのカスタマイズされた AMI を使用して Amazon EC2 起動テンプレートのユーザーデータをカスタマイズすることでホスト GPUs に直接アクセス AWS Batch することで、 G4adを引き続き使用できます。 Amazon EC2

ARM64 アーキテクチャを使用するインスタンスタイプは、カスタマイズされたコードと設定によって GPU にアクセスするために AWS Batch または Amazon EC2 ユーザーデータに提供されるカスタム AMIs の GPUs ジョブでサポートされています。たとえば、G5gインスタンスファミリーなどです。

ジョブ定義の resourceRequirements] パラメータは、コンテナに固定される GPU の数を指定します。この GPUの数は、そのジョブの期間中にインスタンスで実行される他のジョブでは使用できません。GPU ジョブを実行するコンピューティング環境のすべてのインスタンスタイプは、p3、、p4、、p5p6g3g5、または g3s g4g6インスタンスファミリーからのものである必要があります。これを行わないと、GPU ジョブが RUNNABLE 状態で固まる可能性があります。

GPU を使用しないジョブは GPU インスタンスで実行できます。ただし、類似の GPU 以外のインスタンスで実行するよりも、GPU インスタンスで実行する方がコストがかかる場合があります。特定の vCPU、メモリ、および所要時間によっては、このような GPU を使用しないジョブによって GPU ジョブの実行がブロックされる場合があります。