Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Führen Sie GPU-Jobs aus
GPU-Jobs helfen Ihnen dabei, Jobs auszuführen, die die einer Instanz verwenden GPUs.
Die folgenden EC2 GPU-basierten Amazon-Instance-Typen werden unterstützt. Weitere Informationen finden Sie unter Amazon EC2 G3-Instances, Amazon EC2 G4-Instances
Instance-Typ |
GPUs |
GPU-Arbeitsspeicher |
v CPUs |
Arbeitsspeicher |
Netzwerkbandbreite |
---|---|---|---|---|---|
g3s.xgroß |
1 |
8 GiB |
4 |
30,5 GiB |
10 Gbit/s |
g3.4xgroß |
1 |
8 GiB |
16 |
122 GiB |
Bis zu 10 Gbit/s |
g3.8xgroß |
2 |
16 GiB |
32 |
244 GiB |
10 Gbit/s |
g3.16xgroß |
4 |
32 GiB |
64 |
488 GiB |
25 Gbit/s |
g4dn.xgroß |
1 |
16 GiB |
4 |
16 GiB |
Bis zu 25 Gbit/s |
g4dn.2xgroß |
1 |
16 GiB |
8 |
32 GiB |
Bis zu 25 Gbit/s |
g4dn.4xgroß |
1 |
16 GiB |
16 |
64 GiB |
Bis zu 25 Gbit/s |
g4dn.8xgroß |
1 |
16 GiB |
32 |
128 GiB |
50 Gbit/s |
g4dn.12xgroß |
4 |
64 GiB |
48 |
192 GiB |
50 Gbit/s |
g4dn.16xgroß |
1 |
16 GiB |
64 |
256 GiB |
50 Gbit/s |
g5.xgroß |
1 |
24 GiB |
4 |
16 GiB |
Bis zu 10 Gbit/s |
g5.2xlarge |
1 |
24 GiB |
8 |
32 GiB |
Bis zu 10 Gbit/s |
g5.4xlarge |
1 |
24 GiB |
16 |
64 GiB |
Bis zu 25 Gbit/s |
g5.8xlarge |
1 |
24 GiB |
32 |
128 GiB |
25 Gbit/s |
g5.16xlarge |
1 |
24 GiB |
64 |
256 GiB |
25 Gbit/s |
g5.12xlarge |
4 |
96 GiB |
48 |
192 GiB |
40 GBit/s |
g5.24xlarge |
4 |
96 GiB |
96 |
384 GiB |
50 Gbit/s |
g5.48xlarge |
8 |
192 GiB |
192 |
768 GiB |
100 Gbit/s |
g5g.xlarge |
1 |
16 GB |
4 |
8 GB |
Bis zu 10 Gbit/s |
g5g.2xlarge |
1 |
16 GB |
8 |
16 GB |
Bis zu 10 Gbit/s |
g5g.4xlarge |
1 |
16 GB |
16 |
32 GB |
Bis zu 10 Gbit/s |
g5g.8xlarge |
1 |
16 GB |
32 |
64 GB |
12 Gbit/s |
g5g.16xlarge |
2 |
32 GB |
64 |
128 GB |
25 Gbit/s |
g5g.metal |
2 |
32 GB |
64 |
128 GB |
25 Gbit/s |
g6.x groß |
1 |
24 GiB |
4 |
16 GiB |
Bis zu 10 Gbit/s |
g 6.2 x groß |
1 |
24 GiB |
8 |
32 GiB |
Bis zu 10 Gbit/s |
g 6,4 x groß |
1 |
24 GiB |
16 |
64 GiB |
Bis zu 25 Gbit/s |
g 6,8 x groß |
1 |
24 GiB |
32 |
128 GiB |
25 Gbit/s |
g 6.16 x groß |
1 |
24 GiB |
64 |
256 GiB |
25 Gbit/s |
g 6.12 x groß |
4 |
96 GiB |
48 |
192 GiB |
40 GBit/s |
g 6,24 x groß |
4 |
96 GiB |
96 |
384 GiB |
50 Gbit/s |
g 6,48 x groß |
8 |
192 GiB |
192 |
768 GiB |
100 Gbit/s |
g6e.x groß |
1 |
48 GB |
4 |
32 GB |
Bis zu 20 Gbit/s |
g6e.2 x groß |
1 |
48 GB |
8 |
64 GB |
Bis zu 20 Gbit/s |
g6e.4x groß |
1 |
48 GB |
16 |
128 GB |
20 Gbit/s |
g6e.8 x groß |
1 |
48 GB |
32 |
256 GB |
25 Gbit/s |
G6E. 16 x groß |
1 |
48 GB |
64 |
512 GB |
35 Gbit/s |
g6e.12x groß |
4 |
192 GB |
48 |
384 GB |
100 Gbit/s |
g6e.24x groß |
4 |
192 GB |
96 |
768 GB |
200 Gbit/s |
g6e.48x groß |
8 |
384 GB |
192 |
1536 GB |
400 Gbit/s |
gr 6,4 x groß |
1 |
24 GB |
16 |
128 GB |
Bis zu 25 Gbit/s |
gr 6,8 x groß |
1 |
24 GB |
32 |
256 GB |
25 Gbit/s |
p2.xgroß |
1 |
12 GiB |
4 |
61 GiB |
Hoch |
p2.8xgroß |
8 |
96 GiB |
32 |
488 GiB |
10 Gbit/s |
p2.16xgroß |
16 |
192 GiB |
64 |
732 GiB |
20 Gbit/s |
p3.2xgroß |
1 |
16 GiB |
8 |
61 GiB |
Bis zu 10 Gbit/s |
p3.8xgroß |
4 |
64 GiB |
32 |
244 GiB |
10 Gbit/s |
p3.16xgroß |
8 |
128 GiB |
64 |
488 GiB |
25 Gbit/s |
p3dn.24xgroß |
8 |
256 GiB |
96 |
768 GiB |
100 Gbit/s |
p4d.24xgroß |
8 |
320 GB |
96 |
152 GB |
400 Gbit/s |
p4de.24xlarge |
8 |
640 GB |
96 |
152 GB |
400 Gbit/s |
p5.48xlarge |
8 |
640 GiB |
192 |
2 TiB |
3200 Gbit/s |
p 5e. 48 x groß |
8 |
128 GB |
192 |
2 TB |
3200 Gbit/s |
p 5 en 48 x groß |
8 |
128 GB |
192 |
2 TB |
3200 Gbit/s |
p6-b 200.48x groß |
8 |
140 GB |
192 |
2 TB |
100 Gbit/s |
trn1.2xlarge |
1 |
32 GB |
8 |
32 GB |
Bis zu 12,5 GBit/s |
trn1.32xlarge |
16 |
512 GB |
128 |
512 GB |
800 Gbit/s |
trn1n.32xlarge |
16 |
512 GB |
128 |
512 GB |
1600 Gbit/s |
TRN 2,48 x groß |
16 |
1.5 TB |
192 |
2 TB |
3,2 Tbit/s |
inf1.xlarge |
1 |
8 GB |
4 |
8 GB |
Bis zu 25 Gbit/s |
inf1.2xlarge |
1 |
8 GB |
8 |
16 GB |
Bis zu 25 Gbit/s |
inf1.6xlarge |
4 |
32 GB |
24 |
48 GB |
25 Gbit/s |
inf1.24xlarge |
16 |
128 GB |
96 |
192 GB |
100 Gbit/s |
inf2.xlarge |
1 |
32 GB |
4 |
16 GB |
Bis zu 15 GBit/s |
inf2.8xlarge |
1 |
32 GB |
32 |
128 GB |
Bis zu 25 Gbit/s |
inf2.24xlarge |
6 |
192 GB |
96 |
384 GB |
50 Gbit/s |
inf2.48xlarge |
12 |
384 GB |
192 |
768 GB |
100 Gbit/s |
dl1.24xlarge |
8 |
256 GB |
96 |
768 GB |
400 Gbit/s |
dl2q.24xlarge |
8 |
128 GB |
96 |
768 GB |
100 Gbit/s |
Anmerkung
Für GPU-Jobs werden AWS Batch nur Instance-Typen unterstützt, die über NVIDIA verfügen GPUs. Die G4ad
G4ad
Instance-Typen, die eine ARM64 Architektur verwenden, werden für GPU-Jobs mit kundenspezifischen AMIs Benutzerdaten AWS Batch oder EC2 Amazon-Benutzerdaten unterstützt, auf die GPUs durch benutzerdefinierten Code und Konfigurationen zugegriffen werden kann. Zum Beispiel die G5g
Der ResourceRequirements-Parameter für die Jobdefinition gibt die Anzahl der an den Container GPUs anzuheften an. Diese Anzahl von GPUs ist für die Dauer dieses Auftrags für keinen anderen Job verfügbar, der auf dieser Instance ausgeführt wird. Alle Instance-Typen in einer Rechenumgebung, die GPU-Jobs ausführenp3
, müssen zu den g6
Instance-Familien p4
p5
p6
g3
,g3s
,g4
,g5
,,, oder gehören. Geschieht dies nicht, kann es sein, dass ein GPU-Job im RUNNABLE
Status hängen bleibt.
Jobs, die das nicht verwenden, GPUs können auf GPU-Instanzen ausgeführt werden. Ihre Ausführung auf GPU-Instanzen kann jedoch mehr kosten als auf ähnlichen Nicht-GPU-Instanzen. Abhängig von der spezifischen vCPU, dem Arbeitsspeicher und der benötigten Zeit können diese Nicht-GPU-Jobs die Ausführung von GPU-Jobs blockieren.