Esegui lavori GPU - AWS Batch

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Esegui lavori GPU

I lavori GPU ti aiutano a eseguire lavori che utilizzano un'istanza. GPUs

Sono supportati i seguenti tipi di istanze EC2 basate su Amazon GPU. Per ulteriori informazioni, consulta Istanze Amazon EC2 G3, Istanze Amazon EC2 G4, Istanze Amazon G5, Istanze EC2 AmazonG6, Istanze EC2 Amazon P2, Istanze Amazon EC2 P3, Istanze EC2 Amazon EC2 P4d, Istanze Amazon P5, IstanzeAmazon P6, Istanze Amazon Trn1, IstanzeAmazon EC2 Trn2, Amazon EC2 EC2 EC2 https://aws.amazon.com/ec2/instance-types/inf1/ EC2 Istanze Inf1, istanze Amazon EC2 Inf2, istanzeAmazon Dl1 e istanze EC2 Amazon Dl2. EC2

Tipo di istanza

GPUs

Memoria GPU

v CPUs

Memoria

Larghezza di banda di rete

g3s.xlarge

1

8 GiB

4

30,5 GiB

10 Gb/s

g3.4xlarge

1

8 GiB

16

122 GiB

Fino a 10 Gb/s

g3.8xlarge

2

16 GiB

32

24 GiB

10 Gb/s

g3.16xlarge

4

32 GiB

64

488 GiB

25 Gb/s

g4dn.xlarge

1

16 GiB

4

16 GiB

Fino a 25 Gb/s

g4dn.2xlarge

1

16 GiB

8

32 GiB

Fino a 25 Gb/s

g4dn.4xlarge

1

16 GiB

16

64 GiB

Fino a 25 Gb/s

g4dn.8xlarge

1

16 GiB

32

128 GiB

50 Gb/s

g4dn.12xlarge

4

64 GiB

48

192 GiB

50 Gb/s

g4dn.16xlarge

1

16 GiB

64

256 GiB

50 Gb/s

g5.xlarge

1

24 GiB

4

16 GiB

Fino a 10 Gb/s

g5.2xlarge

1

24 GiB

8

32 GiB

Fino a 10 Gb/s

g5.4xlarge

1

24 GiB

16

64 GiB

Fino a 25 Gb/s

g5.8xlarge

1

24 GiB

32

128 GiB

25 Gb/s

g5.16xlarge

1

24 GiB

64

256 GiB

25 Gb/s

g5.12xlarge

4

96 GiB

48

192 GiB

40 Gb/s

g5.24xlarge

4

96 GiB

96

384 GiB

50 Gb/s

g5.48xlarge

8

192 GiB

192

768 GiB

100 Gb/s

g5g.xlarge

1

16 GB

4

8 GB

Fino a 10 Gb/s

g5g.2xlarge

1

16 GB

8

16 GB

Fino a 10 Gb/s

g5g.4xlarge

1

16 GB

16

32 GB

Fino a 10 Gb/s

g5g.8xlarge

1

16 GB

32

64 GB

12 GBps

g5g.16xlarge

2

32 GB

64

128 GB

25 Gb/s

g5g.metal

2

32 GB

64

128 GB

25 Gb/s

g6.x grande

1

24 GiB

4

16 GiB

Fino a 10 Gb/s

g 6,2 x grande

1

24 GiB

8

32 GiB

Fino a 10 Gb/s

g 6,4 x grande

1

24 GiB

16

64 GiB

Fino a 25 Gb/s

g 6,8 x grande

1

24 GiB

32

128 GiB

25 Gb/s

g 6,16 x grande

1

24 GiB

64

256 GiB

25 Gb/s

g 6,12 x grande

4

96 GiB

48

192 GiB

40 Gb/s

g 6,24 x grande

4

96 GiB

96

384 GiB

50 Gb/s

g 6,48 x grande

8

192 GiB

192

768 GiB

100 Gb/s

g6e.xlarge

1

48 GB

4

32 GB

Fino a 20 Gbps

G6 e.2x grande

1

48 GB

8

64 GB

Fino a 20 Gbps

G6e.4xlarge

1

48 GB

16

128 GB

20 Gb/s

G 6. 8x grande

1

48 GB

32

256 GB

25 Gb/s

G6 e.16 x grande

1

48 GB

64

512 GB

35 Gbps

G6 e.12 x grande

4

192 GB

48

384 GB

100 Gb/s

G6 e.24 x grande

4

192 GB

96

768 GB

200 Gb/s

G6 e.48 x grande

8

384 GB

192

1536 GB

400 Gb/s

gr 6,4 x grande

1

24 GB

16

128 GB

Fino a 25 Gb/s

gr 6,8 x grande

1

24 GB

32

256 GB

25 Gb/s

p2.xlarge

1

12 GiB

4

61 GiB

Elevata

p2.8xlarge

8

96 GiB

32

488 GiB

10 Gb/s

p2.16xlarge

16

192 GiB

64

732 GiB

20 Gb/s

p3.2xlarge

1

16 GiB

8

61 GiB

Fino a 10 Gb/s

p3.8xlarge

4

64 GiB

32

24 GiB

10 Gb/s

p3.16xlarge

8

128 GiB

64

488 GiB

25 Gb/s

p3dn.24xlarge

8

256 GiB

96

768 GiB

100 Gb/s

p4d.24xlarge

8

320 GB

96

152 GB

400 Gb/s

p4de.24xlarge

8

640 GB

96

152 GB

400 Gb/s

p5.48xlarge

8

640 GiB

192

2 TiB

3200 Gbps

p 5. 48 x grande

8

128 GB

192

2 TB

3200 Gbps

p5en. 48 x grande

8

128 GB

192

2 TB

3200 Gbps

p6-b 200,48 x grande

8

140 GB

192

2 TB

100 Gb/s

trn1.2xlarge

1

32 GB

8

32 GB

Fino a 12,5 Gb/s

trn1.32xlarge

16

512 GB

128

512 GB

800 Gbps

trn1n.32xlarge

16

512 GB

128

512 GB

1600 Gbps

trn 2,48 x grande

16

1.5 TB

192

2 TB

3,2 Tbps

inf1.xlarge

1

8 GB

4

8 GB

Fino a 25 Gb/s

inf1.2xlarge

1

8 GB

8

16 GB

Fino a 25 Gb/s

inf1.6xlarge

4

32 GB

24

48 GB

25 Gb/s

inf1.24xlarge

16

128 GB

96

192 GB

100 Gb/s

inf2.xlarge

1

32 GB

4

16 GB

Fino a 15 Gb/s

inf2.8xlarge

1

32 GB

32

128 GB

Fino a 25 Gb/s

inf2.24xlarge

6

192 GB

96

384 GB

50 Gb/s

inf2.48xlarge

12

384 GB

192

768 GB

100 Gb/s

dl1.24xlarge

8

256 GB

96

768 GB

400 Gb/s

dl2q.24xlarge

8

128 GB

96

768 GB

100 Gb/s

Nota

Per i lavori con GPU supporta AWS Batch solo i tipi di istanze con NVIDIA. GPUs Ad esempio, la G4adfamiglia non è supportata per la pianificazione tramite GPU. Puoi comunque utilizzare G4adon AWS Batch definendo solo i requisiti di vcpu e memoria nella definizione del processo, quindi accedendo GPUs direttamente all'host tramite la personalizzazione in un modello di Amazon EC2 Launch, i dati utente con un'AMI ottimizzata per il calcolo Amazon ECS o Amazon EKS o un'AMI personalizzata per l'utilizzo di AMD. GPUs

I tipi di istanza che utilizzano un' ARM64 architettura sono supportati per i lavori GPU su dati AMIs forniti su misura AWS Batch o su dati EC2 utente Amazon a cui accedere GPUs tramite codice e configurazioni personalizzati. Ad esempio, la famiglia di G5gistanze.

Il parametro ResourceRequirements per la definizione del processo specifica il numero di GPUs da aggiungere al contenitore. Questo numero di non GPUs è disponibile per nessun altro processo eseguito su quell'istanza per la durata del processo. Tutti i tipi di istanze in un ambiente di calcolo che esegue processi GPU devono appartenere alle p3 famiglie di g6 istanze p4 p5p6,g3,g3s,g4,,g5, o. Se ciò non viene fatto, un job GPU potrebbe rimanere bloccato nello stato. RUNNABLE

I lavori che non utilizzano il GPUs possono essere eseguiti su istanze GPU. Tuttavia, l'esecuzione su istanze GPU potrebbe costare di più rispetto a istanze simili non GPU. A seconda della vCPU, della memoria e del tempo specifici necessari, questi job non GPU potrebbero bloccare l'esecuzione dei job GPU.