Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Ejecución de trabajos de GPU
Los trabajos de GPU le ayudan a ejecutar trabajos que utilizan los de una instancia GPUs.
Se admiten los siguientes tipos de instancias EC2 basadas en GPU de Amazon. Para obtener más información, consulte Instancias Amazon EC2 G3, Instancias
Tipo de instancia |
GPUs |
Memoria de GPU |
v. CPUs |
Memoria |
Ancho de banda de red |
---|---|---|---|---|---|
g3s.xlarge |
1 |
8 GiB |
4 |
30,5 GiB |
10 Gbps |
g3.4xlarge |
1 |
8 GiB |
16 |
122 GiB |
Hasta 10 Gbps |
g3.8xlarge |
2 |
16 GiB |
32 |
244 GiB |
10 Gbps |
g3.16xlarge |
4 |
32 GiB |
64 |
488 GiB |
25 Gbps |
g4dn.xlarge |
1 |
16 GiB |
4 |
16 GiB |
Hasta 25 Gbps. |
g4dn.2xlarge |
1 |
16 GiB |
8 |
32 GiB |
Hasta 25 Gbps. |
g4dn.4xlarge |
1 |
16 GiB |
16 |
64 GiB |
Hasta 25 Gbps. |
g4dn.8xlarge |
1 |
16 GiB |
32 |
128 GiB |
50 Gbps |
g4dn.12xlarge |
4 |
64 GiB |
48 |
192 GiB |
50 Gbps |
g4dn.16xlarge |
1 |
16 GiB |
64 |
256 GiB |
50 Gbps |
g5.xlarge |
1 |
24 GiB |
4 |
16 GiB |
Hasta 10 Gbps |
g5.2xlarge |
1 |
24 GiB |
8 |
32 GiB |
Hasta 10 Gbps |
g5.4xlarge |
1 |
24 GiB |
16 |
64 GiB |
Hasta 25 Gbps. |
g5.8xlarge |
1 |
24 GiB |
32 |
128 GiB |
25 Gbps |
g5.16xlarge |
1 |
24 GiB |
64 |
256 GiB |
25 Gbps |
g5.12xlarge |
4 |
96 GiB |
48 |
192 GiB |
40 Gbps |
g5.24xlarge |
4 |
96 GiB |
96 |
384 GiB |
50 Gbps |
g5.48xlarge |
8 |
192 GiB |
192 |
768 GiB |
100 Gbps |
g5g.xlarge |
1 |
16 GB |
4 |
8 GB |
Hasta 10 Gbps |
g5g.2xlarge |
1 |
16 GB |
8 |
16 GB |
Hasta 10 Gbps |
g5g.4xlarge |
1 |
16 GB |
16 |
32 GB |
Hasta 10 Gbps |
g5g.8xlarge |
1 |
16 GB |
32 |
64 GB |
12 Gbps |
g5g.16xlarge |
2 |
32 GB |
64 |
128 GB |
25 Gbps |
g5g.metal |
2 |
32 GB |
64 |
128 GB |
25 Gbps |
g6.xlarge |
1 |
24 GiB |
4 |
16 GiB |
Hasta 10 Gbps |
g6.2xlarge |
1 |
24 GiB |
8 |
32 GiB |
Hasta 10 Gbps |
g6.4xlarge |
1 |
24 GiB |
16 |
64 GiB |
Hasta 25 Gbps. |
g6.8xlarge |
1 |
24 GiB |
32 |
128 GiB |
25 Gbps |
g6.16xlarge |
1 |
24 GiB |
64 |
256 GiB |
25 Gbps |
g6.12xlarge |
4 |
96 GiB |
48 |
192 GiB |
40 Gbps |
g6.24xlarge |
4 |
96 GiB |
96 |
384 GiB |
50 Gbps |
g6.48xlarge |
8 |
192 GiB |
192 |
768 GiB |
100 Gbps |
g6e.xlarge |
1 |
48 GB |
4 |
32 GB |
Hasta 20 Gbps |
g6e.2xlarge |
1 |
48 GB |
8 |
64 GB |
Hasta 20 Gbps |
g6e.4xlarge |
1 |
48 GB |
16 |
128 GB |
20 Gbps |
g6g.8xlarge |
1 |
48 GB |
32 |
256 GB |
25 Gbps |
g6e.16xlarge |
1 |
48 GB |
64 |
512 GB |
35 Gbps |
g6e.12xlarge |
4 |
192 GB |
48 |
384 GB |
100 Gbps |
g6e.24xlarge |
4 |
192 GB |
96 |
768 GB |
200 Gbps |
g6e.48xlarge |
8 |
384 GB |
192 |
1536 GB |
400 Gbps |
gr6.4xlarge |
1 |
24 GB |
16 |
128 GB |
Hasta 25 Gbps. |
gr6.8xlarge |
1 |
24 GB |
32 |
256 GB |
25 Gbps |
p2.xlarge |
1 |
12 GiB |
4 |
61 GiB |
Alto |
p2.8xlarge |
8 |
96 GiB |
32 |
488 GiB |
10 Gbps |
p2.16xlarge |
16 |
192 GiB |
64 |
732 GiB |
20 Gbps |
p3.2xlarge |
1 |
16 GiB |
8 |
61 GiB |
Hasta 10 Gbps |
p3.8xlarge |
4 |
64 GiB |
32 |
244 GiB |
10 Gbps |
p3.16xlarge |
8 |
128 GiB |
64 |
488 GiB |
25 Gbps |
p3dn.24xlarge |
8 |
256 GiB |
96 |
768 GiB |
100 Gbps |
p4d.24xlarge |
8 |
320 GB |
96 |
152 GB |
400 Gbps |
p4de.24xlarge |
8 |
640 GB |
96 |
152 GB |
400 Gbps |
p5.48xlarge |
8 |
640 GiB |
192 |
2 TiB |
3200 Gbps |
p5e.48xlarge |
8 |
128 GB |
192 |
2 TB |
3200 Gbps |
p5en.48xlarge |
8 |
128 GB |
192 |
2 TB |
3200 Gbps |
p6-b200.48xlarge |
8 |
140 GB |
192 |
2 TB |
100 Gbps |
trn1.2xlarge |
1 |
32 GB |
8 |
32 GB |
Hasta 12,5 Gbps |
trn1.32xlarge |
16 |
512 GB |
128 |
512 GB |
800 Gbps |
trn1n.32xlarge |
16 |
512 GB |
128 |
512 GB |
1600 Gbps |
trn2.48xlarge |
16 |
1.5 TB |
192 |
2 TB |
3,2 Tbps |
inf1.xlarge |
1 |
8 GB |
4 |
8 GB |
Hasta 25 Gbps. |
inf1.2xlarge |
1 |
8 GB |
8 |
16 GB |
Hasta 25 Gbps. |
inf1.6xlarge |
4 |
32 GB |
24 |
48 GB |
25 Gbps |
inf1.24xlarge |
16 |
128 GB |
96 |
192 GB |
100 Gbps |
inf2.xlarge |
1 |
32 GB |
4 |
16 GB |
Hasta 15 Gbps |
inf2.8xlarge |
1 |
32 GB |
32 |
128 GB |
Hasta 25 Gbps. |
inf2.24xlarge |
6 |
192 GB |
96 |
384 GB |
50 Gbps |
inf2.48xlarge |
12 |
384 GB |
192 |
768 GB |
100 Gbps |
dl1.24xlarge |
8 |
256 GB |
96 |
768 GB |
400 Gbps |
dl2q.24xlarge |
8 |
128 GB |
96 |
768 GB |
100 Gbps |
nota
Para trabajos de GPU, AWS Batch solo admite tipos de instancias que tengan NVIDIA GPUs. Por ejemplo, la G4ad
G4ad
Los tipos de instancias que utilizan una ARM64 arquitectura son compatibles con los trabajos de GPU sobre datos AMIs proporcionados a medida AWS Batch o con datos de EC2 usuario de Amazon a los que se puede acceder GPUs mediante códigos y configuraciones personalizados. Por ejemplo, la familia de G5g
El parámetro ResourceRequirements de la definición del trabajo especifica el número de tareas GPUs que se van a fijar al contenedor. Este número de no GPUs está disponible para ningún otro trabajo que se ejecute en esa instancia durante ese trabajo. Todos los tipos de instancias de un entorno de cómputo que ejecuten trabajos de GPU deben pertenecer a las familias de instancias p3
p4
p5
,p6
,g3
,g3s
,, g4
g5
, o de las familias de g6
instancias. Si no lo hace así, un trabajo de GPU podría quedar bloqueado en el estado RUNNABLE
.
Los trabajos que no utilizan las se GPUs pueden ejecutar en instancias de GPU. Sin embargo, es posible que su ejecución en las instancias de GPU cueste más que en instancias similares que no sean de GPU. En función de la vCPU específica, la memoria y el tiempo necesario, estos trabajos sin GPU pueden bloquear la ejecución de los trabajos de GPU.