

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Selección de instancias para las etapas de Neptune ML
<a name="machine-learning-on-graphs-instance-selection"></a>

Las diferentes etapas del procesamiento de Neptune ML utilizan distintas instancias de SageMaker AI. A continuación, explicaremos cómo elegir el tipo de instancia adecuado para cada etapa. Puede encontrar información sobre los tipos de instancia de SageMaker AI y sus precios en [Precios de Amazon SageMaker](https://aws.amazon.com/sagemaker/pricing/).

## Selección de una instancia para el procesamiento de datos
<a name="machine-learning-on-graphs-processing-instance-size"></a>

El paso de [procesamiento de datos](machine-learning-on-graphs-processing.md) de SageMaker AI requiere una [instancia de procesamiento](https://docs.aws.amazon.com/sagemaker/latest/dg/processing-job.html) que tenga suficiente memoria y almacenamiento en disco para los datos de entrada, intermedios y de salida. La cantidad específica de memoria y almacenamiento en disco que se necesita depende de las características del gráfico de Neptune ML y sus características exportadas.

De forma predeterminada, Neptune ML elige la instancia `ml.r5` de menor tamaño cuya memoria sea diez veces mayor que el tamaño de los datos de gráficos exportados en el disco.

## Selección de una instancia para el entrenamiento y la transformación de modelos
<a name="machine-learning-on-graphs-training-transform-instance-size"></a>

La selección del tipo de instancia correcto para el [entrenamiento de modelos](https://docs.aws.amazon.com/sagemaker/latest/dg/how-it-works-training.html) o la [transformación de modelos](https://docs.aws.amazon.com/sagemaker/latest/dg/how-it-works-batch.html) depende del tipo de tarea, el tamaño del gráfico y los requisitos de entrega. Las instancias de GPU proporcionan el mejor rendimiento. Por lo general, recomendamos las instancias de serie `p3` y `g4dn`. También puede usar instancias `p2` o `p4d`.

De forma predeterminada, Neptune ML elige la instancia de GPU de menor tamaño y con más memoria que la que necesitan el entrenamiento y la transformación de modelos. Puede encontrar esta selección en el archivo `train_instance_recommendation.json`, en la ubicación de salida del procesamiento de datos de Amazon S3. A continuación, se muestra un ejemplo del contenido de un archivo `train_instance_recommendation.json`:

```
{ 
  "instance":     "(the recommended instance type for model training and transform)",
  "cpu_instance": "(the recommended instance type for base processing instance)", 
  "disk_size":    "(the estimated disk space required)",
  "mem_size":     "(the estimated memory required)"
}
```

## Selección de una instancia para un punto de conexión de inferencia
<a name="machine-learning-on-graphs-inference-endpoint-instance-size"></a>

La selección del tipo de instancia correcto para un [punto de conexión de inferencia](machine-learning-on-graphs-inference-endpoint.md) depende del tipo de tarea, del tamaño del gráfico y del presupuesto. De forma predeterminada, Neptune ML elige la instancia `ml.m5d` de menor tamaño y con más memoria que la que necesita el punto de conexión de inferencia.

**nota**  
Si se necesitan más de 384 GB de memoria, Neptune ML usa una instancia `ml.r5d.24xlarge`.

Puede ver el tipo de instancia que recomienda Neptune ML en el archivo `infer_instance_recommendation.json`, que se encuentra en la ubicación de Amazon S3 que está utilizando para el entrenamiento de modelos. A continuación, se muestra un ejemplo del contenido de ese archivo:

```
{ 
  "instance" :   "(the recommended instance type for an inference endpoint)",
  "disk_size" :  "(the estimated disk space required)",
  "mem_size" :   "(the estimated memory required)"
}
```