Ejecución de trabajos de GPU - AWS Batch

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Ejecución de trabajos de GPU

Los trabajos de GPU le ayudan a ejecutar trabajos que utilizan los de una instancia GPUs.

Se admiten los siguientes tipos de instancias EC2 basadas en GPU de Amazon. Para obtener más información, consulte Instancias Amazon EC2 G3, InstanciasAmazon EC2 G4, InstanciasAmazon EC2 G5, Instancias Amazon G6, EC2 Instancias Amazon EC2 P2, InstanciasAmazon EC2 P3, InstanciasAmazon EC2 P4d, InstanciasAmazon EC2 P5, InstanciasAmazon P6, Instancias Amazon Trn1, EC2 Instancias Amazon Trn2,Amazon EC2 EC2 EC2 Instancias Inf1, instancias Amazon EC2 Inf2, instancias Amazon EC2 Dl1 e instancias Amazon EC2 Dl2.

Tipo de instancia

GPUs

Memoria de GPU

v. CPUs

Memoria

Ancho de banda de red

g3s.xlarge

1

8 GiB

4

30,5 GiB

10 Gbps

g3.4xlarge

1

8 GiB

16

122 GiB

Hasta 10 Gbps

g3.8xlarge

2

16 GiB

32

244 GiB

10 Gbps

g3.16xlarge

4

32 GiB

64

488 GiB

25 Gbps

g4dn.xlarge

1

16 GiB

4

16 GiB

Hasta 25 Gbps.

g4dn.2xlarge

1

16 GiB

8

32 GiB

Hasta 25 Gbps.

g4dn.4xlarge

1

16 GiB

16

64 GiB

Hasta 25 Gbps.

g4dn.8xlarge

1

16 GiB

32

128 GiB

50 Gbps

g4dn.12xlarge

4

64 GiB

48

192 GiB

50 Gbps

g4dn.16xlarge

1

16 GiB

64

256 GiB

50 Gbps

g5.xlarge

1

24 GiB

4

16 GiB

Hasta 10 Gbps

g5.2xlarge

1

24 GiB

8

32 GiB

Hasta 10 Gbps

g5.4xlarge

1

24 GiB

16

64 GiB

Hasta 25 Gbps.

g5.8xlarge

1

24 GiB

32

128 GiB

25 Gbps

g5.16xlarge

1

24 GiB

64

256 GiB

25 Gbps

g5.12xlarge

4

96 GiB

48

192 GiB

40 Gbps

g5.24xlarge

4

96 GiB

96

384 GiB

50 Gbps

g5.48xlarge

8

192 GiB

192

768 GiB

100 Gbps

g5g.xlarge

1

16 GB

4

8 GB

Hasta 10 Gbps

g5g.2xlarge

1

16 GB

8

16 GB

Hasta 10 Gbps

g5g.4xlarge

1

16 GB

16

32 GB

Hasta 10 Gbps

g5g.8xlarge

1

16 GB

32

64 GB

12 Gbps

g5g.16xlarge

2

32 GB

64

128 GB

25 Gbps

g5g.metal

2

32 GB

64

128 GB

25 Gbps

g6.xlarge

1

24 GiB

4

16 GiB

Hasta 10 Gbps

g6.2xlarge

1

24 GiB

8

32 GiB

Hasta 10 Gbps

g6.4xlarge

1

24 GiB

16

64 GiB

Hasta 25 Gbps.

g6.8xlarge

1

24 GiB

32

128 GiB

25 Gbps

g6.16xlarge

1

24 GiB

64

256 GiB

25 Gbps

g6.12xlarge

4

96 GiB

48

192 GiB

40 Gbps

g6.24xlarge

4

96 GiB

96

384 GiB

50 Gbps

g6.48xlarge

8

192 GiB

192

768 GiB

100 Gbps

g6e.xlarge

1

48 GB

4

32 GB

Hasta 20 Gbps

g6e.2xlarge

1

48 GB

8

64 GB

Hasta 20 Gbps

g6e.4xlarge

1

48 GB

16

128 GB

20 Gbps

g6g.8xlarge

1

48 GB

32

256 GB

25 Gbps

g6e.16xlarge

1

48 GB

64

512 GB

35 Gbps

g6e.12xlarge

4

192 GB

48

384 GB

100 Gbps

g6e.24xlarge

4

192 GB

96

768 GB

200 Gbps

g6e.48xlarge

8

384 GB

192

1536 GB

400 Gbps

gr6.4xlarge

1

24 GB

16

128 GB

Hasta 25 Gbps.

gr6.8xlarge

1

24 GB

32

256 GB

25 Gbps

p2.xlarge

1

12 GiB

4

61 GiB

Alto

p2.8xlarge

8

96 GiB

32

488 GiB

10 Gbps

p2.16xlarge

16

192 GiB

64

732 GiB

20 Gbps

p3.2xlarge

1

16 GiB

8

61 GiB

Hasta 10 Gbps

p3.8xlarge

4

64 GiB

32

244 GiB

10 Gbps

p3.16xlarge

8

128 GiB

64

488 GiB

25 Gbps

p3dn.24xlarge

8

256 GiB

96

768 GiB

100 Gbps

p4d.24xlarge

8

320 GB

96

152 GB

400 Gbps

p4de.24xlarge

8

640 GB

96

152 GB

400 Gbps

p5.48xlarge

8

640 GiB

192

2 TiB

3200 Gbps

p5e.48xlarge

8

128 GB

192

2 TB

3200 Gbps

p5en.48xlarge

8

128 GB

192

2 TB

3200 Gbps

p6-b200.48xlarge

8

140 GB

192

2 TB

100 Gbps

trn1.2xlarge

1

32 GB

8

32 GB

Hasta 12,5 Gbps

trn1.32xlarge

16

512 GB

128

512 GB

800 Gbps

trn1n.32xlarge

16

512 GB

128

512 GB

1600 Gbps

trn2.48xlarge

16

1.5 TB

192

2 TB

3,2 Tbps

inf1.xlarge

1

8 GB

4

8 GB

Hasta 25 Gbps.

inf1.2xlarge

1

8 GB

8

16 GB

Hasta 25 Gbps.

inf1.6xlarge

4

32 GB

24

48 GB

25 Gbps

inf1.24xlarge

16

128 GB

96

192 GB

100 Gbps

inf2.xlarge

1

32 GB

4

16 GB

Hasta 15 Gbps

inf2.8xlarge

1

32 GB

32

128 GB

Hasta 25 Gbps.

inf2.24xlarge

6

192 GB

96

384 GB

50 Gbps

inf2.48xlarge

12

384 GB

192

768 GB

100 Gbps

dl1.24xlarge

8

256 GB

96

768 GB

400 Gbps

dl2q.24xlarge

8

128 GB

96

768 GB

100 Gbps

nota

Para trabajos de GPU, AWS Batch solo admite tipos de instancias que tengan NVIDIA GPUs. Por ejemplo, la G4adfamilia no es compatible con la programación de la GPU. Puede seguir G4adutilizándolo AWS Batch definiendo solo los requisitos de vcpu y memoria en la definición del trabajo y, a continuación, accediendo al host GPUs directamente mediante la personalización de los datos de usuario de una plantilla de EC2 lanzamiento de Amazon con una AMI optimizada para cómputo de Amazon ECS o Amazon EKS, o una AMI personalizada para usar AMD GPUs.

Los tipos de instancias que utilizan una ARM64 arquitectura son compatibles con los trabajos de GPU sobre datos AMIs proporcionados a medida AWS Batch o con datos de EC2 usuario de Amazon a los que se puede acceder GPUs mediante códigos y configuraciones personalizados. Por ejemplo, la familia de G5ginstancias.

El parámetro ResourceRequirements de la definición del trabajo especifica el número de tareas GPUs que se van a fijar al contenedor. Este número de no GPUs está disponible para ningún otro trabajo que se ejecute en esa instancia durante ese trabajo. Todos los tipos de instancias de un entorno de cómputo que ejecuten trabajos de GPU deben pertenecer a las familias de instancias p3 p4p5,p6,g3,g3s,, g4g5, o de las familias de g6 instancias. Si no lo hace así, un trabajo de GPU podría quedar bloqueado en el estado RUNNABLE.

Los trabajos que no utilizan las se GPUs pueden ejecutar en instancias de GPU. Sin embargo, es posible que su ejecución en las instancias de GPU cueste más que en instancias similares que no sean de GPU. En función de la vCPU específica, la memoria y el tiempo necesario, estos trabajos sin GPU pueden bloquear la ejecución de los trabajos de GPU.