Führen Sie GPU-Jobs aus - AWS Batch

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Führen Sie GPU-Jobs aus

GPU-Jobs helfen Ihnen dabei, Jobs auszuführen, die die einer Instanz verwenden GPUs.

Die folgenden EC2 GPU-basierten Amazon-Instance-Typen werden unterstützt. Weitere Informationen finden Sie unter Amazon EC2 G3-Instances, Amazon EC2 G4-Instances, Amazon EC2 G5-Instances, Amazon EC2 G6-Instances, Amazon P2-Instances, Amazon EC2 P3-Instances, Amazon EC2 EC2 P4d-Instances, Amazon EC2 P5-Instances, Amazon EC2 P6-Instances, Amazon Trn1-Instances, Amazon Trn2-Instances, Amazon Trn2-Instances, Amazon EC2 EC2 EC2 Inf1-Instances, Amazon EC2 Inf2-Instances, Amazon EC2 Dl1-Instances und Amazon EC2 Dl2-Instances.

Instance-Typ

GPUs

GPU-Arbeitsspeicher

v CPUs

Arbeitsspeicher

Netzwerkbandbreite

g3s.xgroß

1

8 GiB

4

30,5 GiB

10 Gbit/s

g3.4xgroß

1

8 GiB

16

122 GiB

Bis zu 10 Gbit/s

g3.8xgroß

2

16 GiB

32

244 GiB

10 Gbit/s

g3.16xgroß

4

32 GiB

64

488 GiB

25 Gbit/s

g4dn.xgroß

1

16 GiB

4

16 GiB

Bis zu 25 Gbit/s

g4dn.2xgroß

1

16 GiB

8

32 GiB

Bis zu 25 Gbit/s

g4dn.4xgroß

1

16 GiB

16

64 GiB

Bis zu 25 Gbit/s

g4dn.8xgroß

1

16 GiB

32

128 GiB

50 Gbit/s

g4dn.12xgroß

4

64 GiB

48

192 GiB

50 Gbit/s

g4dn.16xgroß

1

16 GiB

64

256 GiB

50 Gbit/s

g5.xgroß

1

24 GiB

4

16 GiB

Bis zu 10 Gbit/s

g5.2xlarge

1

24 GiB

8

32 GiB

Bis zu 10 Gbit/s

g5.4xlarge

1

24 GiB

16

64 GiB

Bis zu 25 Gbit/s

g5.8xlarge

1

24 GiB

32

128 GiB

25 Gbit/s

g5.16xlarge

1

24 GiB

64

256 GiB

25 Gbit/s

g5.12xlarge

4

96 GiB

48

192 GiB

40 GBit/s

g5.24xlarge

4

96 GiB

96

384 GiB

50 Gbit/s

g5.48xlarge

8

192 GiB

192

768 GiB

100 Gbit/s

g5g.xlarge

1

16 GB

4

8 GB

Bis zu 10 Gbit/s

g5g.2xlarge

1

16 GB

8

16 GB

Bis zu 10 Gbit/s

g5g.4xlarge

1

16 GB

16

32 GB

Bis zu 10 Gbit/s

g5g.8xlarge

1

16 GB

32

64 GB

12 Gbit/s

g5g.16xlarge

2

32 GB

64

128 GB

25 Gbit/s

g5g.metal

2

32 GB

64

128 GB

25 Gbit/s

g6.x groß

1

24 GiB

4

16 GiB

Bis zu 10 Gbit/s

g 6.2 x groß

1

24 GiB

8

32 GiB

Bis zu 10 Gbit/s

g 6,4 x groß

1

24 GiB

16

64 GiB

Bis zu 25 Gbit/s

g 6,8 x groß

1

24 GiB

32

128 GiB

25 Gbit/s

g 6.16 x groß

1

24 GiB

64

256 GiB

25 Gbit/s

g 6.12 x groß

4

96 GiB

48

192 GiB

40 GBit/s

g 6,24 x groß

4

96 GiB

96

384 GiB

50 Gbit/s

g 6,48 x groß

8

192 GiB

192

768 GiB

100 Gbit/s

g6e.x groß

1

48 GB

4

32 GB

Bis zu 20 Gbit/s

g6e.2 x groß

1

48 GB

8

64 GB

Bis zu 20 Gbit/s

g6e.4x groß

1

48 GB

16

128 GB

20 Gbit/s

g6e.8 x groß

1

48 GB

32

256 GB

25 Gbit/s

G6E. 16 x groß

1

48 GB

64

512 GB

35 Gbit/s

g6e.12x groß

4

192 GB

48

384 GB

100 Gbit/s

g6e.24x groß

4

192 GB

96

768 GB

200 Gbit/s

g6e.48x groß

8

384 GB

192

1536 GB

400 Gbit/s

gr 6,4 x groß

1

24 GB

16

128 GB

Bis zu 25 Gbit/s

gr 6,8 x groß

1

24 GB

32

256 GB

25 Gbit/s

p2.xgroß

1

12 GiB

4

61 GiB

Hoch

p2.8xgroß

8

96 GiB

32

488 GiB

10 Gbit/s

p2.16xgroß

16

192 GiB

64

732 GiB

20 Gbit/s

p3.2xgroß

1

16 GiB

8

61 GiB

Bis zu 10 Gbit/s

p3.8xgroß

4

64 GiB

32

244 GiB

10 Gbit/s

p3.16xgroß

8

128 GiB

64

488 GiB

25 Gbit/s

p3dn.24xgroß

8

256 GiB

96

768 GiB

100 Gbit/s

p4d.24xgroß

8

320 GB

96

152 GB

400 Gbit/s

p4de.24xlarge

8

640 GB

96

152 GB

400 Gbit/s

p5.48xlarge

8

640 GiB

192

2 TiB

3200 Gbit/s

p 5e. 48 x groß

8

128 GB

192

2 TB

3200 Gbit/s

p 5 en 48 x groß

8

128 GB

192

2 TB

3200 Gbit/s

p6-b 200.48x groß

8

140 GB

192

2 TB

100 Gbit/s

trn1.2xlarge

1

32 GB

8

32 GB

Bis zu 12,5 GBit/s

trn1.32xlarge

16

512 GB

128

512 GB

800 Gbit/s

trn1n.32xlarge

16

512 GB

128

512 GB

1600 Gbit/s

TRN 2,48 x groß

16

1.5 TB

192

2 TB

3,2 Tbit/s

inf1.xlarge

1

8 GB

4

8 GB

Bis zu 25 Gbit/s

inf1.2xlarge

1

8 GB

8

16 GB

Bis zu 25 Gbit/s

inf1.6xlarge

4

32 GB

24

48 GB

25 Gbit/s

inf1.24xlarge

16

128 GB

96

192 GB

100 Gbit/s

inf2.xlarge

1

32 GB

4

16 GB

Bis zu 15 GBit/s

inf2.8xlarge

1

32 GB

32

128 GB

Bis zu 25 Gbit/s

inf2.24xlarge

6

192 GB

96

384 GB

50 Gbit/s

inf2.48xlarge

12

384 GB

192

768 GB

100 Gbit/s

dl1.24xlarge

8

256 GB

96

768 GB

400 Gbit/s

dl2q.24xlarge

8

128 GB

96

768 GB

100 Gbit/s

Anmerkung

Für GPU-Jobs werden AWS Batch nur Instance-Typen unterstützt, die über NVIDIA verfügen GPUs. Die G4adFamilie wird beispielsweise nicht für die GPU-Planung unterstützt. Sie können weiterhin G4adon verwenden, AWS Batch indem Sie nur die vCPU- und Speicheranforderungen in der Jobdefinition definieren und dann GPUs direkt auf den Host zugreifen, indem Sie Benutzerdaten in einer EC2 Amazon-Startvorlage mit einem für die Datenverarbeitung optimierten Amazon ECS- oder Amazon EKS-AMI oder einem benutzerdefinierten AMI für die Verwendung von AMD GPUs anpassen.

Instance-Typen, die eine ARM64 Architektur verwenden, werden für GPU-Jobs mit kundenspezifischen AMIs Benutzerdaten AWS Batch oder EC2 Amazon-Benutzerdaten unterstützt, auf die GPUs durch benutzerdefinierten Code und Konfigurationen zugegriffen werden kann. Zum Beispiel die G5gInstance-Familie.

Der ResourceRequirements-Parameter für die Jobdefinition gibt die Anzahl der an den Container GPUs anzuheften an. Diese Anzahl von GPUs ist für die Dauer dieses Auftrags für keinen anderen Job verfügbar, der auf dieser Instance ausgeführt wird. Alle Instance-Typen in einer Rechenumgebung, die GPU-Jobs ausführenp3, müssen zu den g6 Instance-Familien p4 p5 p6g3,g3s,g4,g5,,, oder gehören. Geschieht dies nicht, kann es sein, dass ein GPU-Job im RUNNABLE Status hängen bleibt.

Jobs, die das nicht verwenden, GPUs können auf GPU-Instanzen ausgeführt werden. Ihre Ausführung auf GPU-Instanzen kann jedoch mehr kosten als auf ähnlichen Nicht-GPU-Instanzen. Abhängig von der spezifischen vCPU, dem Arbeitsspeicher und der benötigten Zeit können diese Nicht-GPU-Jobs die Ausführung von GPU-Jobs blockieren.