Executar trabalhos de GPU - AWS Batch

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Executar trabalhos de GPU

Os trabalhos de GPU ajudam você a executar trabalhos que usam os de uma instância. GPUs

Os seguintes tipos de instância EC2 baseados em GPU da Amazon são compatíveis. Para obter mais informações, consulte Instâncias Amazon EC2 G3, InstânciasAmazon EC2 G4, Instâncias Amazon EC2 G5, Instâncias Amazon G6, EC2 Instâncias Amazon EC2 P2, InstânciasAmazon EC2 P3, InstânciasAmazon EC2 P4d, InstânciasAmazon P5, Instâncias Amazon EC2 EC2 P6,Instâncias Amazon Trn1, InstânciasAmazon Trn2, Amazon EC2 EC2 EC2 Instâncias Inf1, Instâncias Amazon EC2 Inf2, Instâncias Amazon EC2 Dl1 e Instâncias Amazon EC2 Dl2.

Tipo de instância

GPUs

Memória da GPU

v CPUs

Memória

Largura de banda de rede

g3s.xlarge

1

8 GiB

4

30,5 GiB

10 Gbps

g3.4xlarge

1

8 GiB

16

122 GiB

Até 10 Gbps

g3.8xlarge

2

16 GiB

32

244 GiB

10 Gbps

g3.16xlarge

4

32 GiB

64

488 GiB

25 Gbps

g4dn.xlarge

1

16 GiB

4

16 GiB

Até 25 Gbps

g4dn.2xlarge

1

16 GiB

8

32 GiB

Até 25 Gbps

g4dn.4xlarge

1

16 GiB

16

64 GiB

Até 25 Gbps

g4dn.8xlarge

1

16 GiB

32

128 GiB

50 Gbps

g4dn.12xlarge

4

64 GiB

48

192 GiB

50 Gbps

g4dn.16xlarge

1

16 GiB

64

256 GiB

50 Gbps

g5.xlarge

1

24 GiB

4

16 GiB

Até 10 Gbps

g5.2xlarge

1

24 GiB

8

32 GiB

Até 10 Gbps

g5.4xlarge

1

24 GiB

16

64 GiB

Até 25 Gbps

g5.8xlarge

1

24 GiB

32

128 GiB

25 Gbps

g5.16xlarge

1

24 GiB

64

256 GiB

25 Gbps

g5.12xlarge

4

96 GiB

48

192 GiB

40 Gbps

g5.24xlarge

4

96 GiB

96

384 GiB

50 Gbps

g5.48xlarge

8

192 GiB

192

768 GiB

100 Gbps

g5g.xlarge

1

16 GB

4

8 GB

Até 10 Gbps

g5g.2xlarge

1

16 GB

8

16 GB

Até 10 Gbps

g5g.4xlarge

1

16 GB

16

32 GB

Até 10 Gbps

g5g.8xlarge

1

16 GB

32

64 GB

12 Gbps

g5g.16xlarge

2

32 GB

64

128 GB

25 Gbps

g5g.metal

2

32 GB

64

128 GB

25 Gbps

g6.xlarge

1

24 GiB

4

16 GiB

Até 10 Gbps

g6.2xlarge

1

24 GiB

8

32 GiB

Até 10 Gbps

g6.4xlarge

1

24 GiB

16

64 GiB

Até 25 Gbps

g6.8xlarge

1

24 GiB

32

128 GiB

25 Gbps

g6.16xlarge

1

24 GiB

64

256 GiB

25 Gbps

g6.12xlarge

4

96 GiB

48

192 GiB

40 Gbps

g6.24xlarge

4

96 GiB

96

384 GiB

50 Gbps

g6.48xlarge

8

192 GiB

192

768 GiB

100 Gbps

g6e.xlarge

1

48 GB

4

32 GB

Até 20 Gbps

g6e.2xlarge

1

48 GB

8

64 GB

Até 20 Gbps

g6e.4xlarge

1

48 GB

16

128 GB

20 Gbps

g6e.8xlarge

1

48 GB

32

256 GB

25 Gbps

g6e.16xlarge

1

48 GB

64

512 GB

35 Gbps

g6e.12xlarge

4

192 GB

48

384 GB

100 Gbps

g6e.24xlarge

4

192 GB

96

768 GB

200 Gbps

g6e.48xlarge

8

384 GB

192

1536 GB

400 Gbps

gr6.4xlarge

1

24 GB

16

128 GB

Até 25 Gbps

gr6.8xlarge

1

24 GB

32

256 GB

25 Gbps

p2.xlarge

1

12 GiB

4

61 GiB

Alto

p2.8xlarge

8

96 GiB

32

488 GiB

10 Gbps

p2.16xlarge

16

192 GiB

64

732 GiB

20 Gbps

p3.2xlarge

1

16 GiB

8

61 GiB

Até 10 Gbps

p3.8xlarge

4

64 GiB

32

244 GiB

10 Gbps

p3.16xlarge

8

128 GiB

64

488 GiB

25 Gbps

p3dn.24xlarge

8

256 GiB

96

768 GiB

100 Gbps

p4d.24xlarge

8

320 GB

96

152 GB

400 Gbps

p4de.24xlarge

8

640 GB

96

152 GB

400 Gbps

p5.48xlarge

8

640 GiB

192

2 TiB

3200 Gbps

p5e.48xlarge

8

128 GB

192

2 TB

3200 Gbps

p5en.48xlarge

8

128 GB

192

2 TB

3200 Gbps

p6-b200.48xlarge

8

1440 GB

192

2 TB

100 Gbps

trn1.2xlarge

1

32 GB

8

32 GB

Até 12,5 Gbps

trn1.32xlarge

16

512 GB

128

512 GB

800 Gbps

trn1n.32xlarge

16

512 GB

128

512 GB

1600 Gbps

trn2.48xlarge

16

1.5 TB

192

2 TB

3,2 colheres de sopa

inf1.xlarge

1

8 GB

4

8 GB

Até 25 Gbps

inf1.2xlarge

1

8 GB

8

16 GB

Até 25 Gbps

inf1.6xlarge

4

32 GB

24

48 GB

25 Gbps

inf1.24xlarge

16

128 GB

96

192 GB

100 Gbps

inf2.xlarge

1

32 GB

4

16 GB

Até 15 Gbps

inf2.8xlarge

1

32 GB

32

128 GB

Até 25 Gbps

inf2.24xlarge

6

192 GB

96

384 GB

50 Gbps

inf2.48xlarge

12

384 GB

192

768 GB

100 Gbps

dl1.24xlarge

8

256 GB

96

768 GB

400 Gbps

dl2q.24xlarge

8

128 GB

96

768 GB

100 Gbps

nota

Para trabalhos de GPU, AWS Batch só oferece suporte a tipos de instância que tenham GPUs NVIDIA. Por exemplo, a G4adfamília não é compatível com o agendamento de GPU. Você ainda pode usar G4adon AWS Batch definindo somente os requisitos de vcpu e memória na definição do trabalho e, em seguida, acessando o host GPUs diretamente por meio da personalização em um modelo de EC2 lançamento da Amazon, dados do usuário com uma AMI otimizada para computação do Amazon ECS ou Amazon EKS, ou uma AMI personalizada para usar a AMD. GPUs

Os tipos de instância que usam uma ARM64 arquitetura são compatíveis com trabalhos de GPU em dados personalizados AMIs fornecidos AWS Batch ou dados de EC2 usuários da Amazon para acessá-los GPUs por meio de código e configurações personalizados. Por exemplo, a família de G5ginstâncias.

O parâmetro ResourceRequirements para a definição do trabalho especifica o número de tarefas a GPUs serem fixadas no contêiner. Esse número de GPUs não está disponível para nenhum outro trabalho executado nessa instância durante esse trabalho. Todos os tipos de instância em um ambiente computacional que executam trabalhos de GPU devem ser das famílias de g6 instâncias p3 p4p5,p6,,g3,g3s,g4,g5,, ou. Se isso não for feito, um trabalho de GPU poderá ficar preso no status RUNNABLE.

Os trabalhos que não usam o GPUs podem ser executados em instâncias de GPU. No entanto, eles podem custar mais para serem executados nas instâncias de GPU do que em instâncias semelhantes sem GPU. A depender da vCPU específica, da memória e do tempo necessário, essas tarefas que não são de GPU podem bloquear a execução de tarefas de GPU.