

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Auswahl der Instance für die Neptune-ML-Phasen
<a name="machine-learning-on-graphs-instance-selection"></a>

Die verschiedenen Phasen der Neptune ML-Verarbeitung verwenden unterschiedliche SageMaker KI-Instanzen. Im Folgenden wird beschrieben, wie Sie den richtigen Instance-Typ für die einzelnen Phasen auswählen. Informationen zu SageMaker KI-Instance-Typen und Preisen finden Sie unter [Amazon SageMaker Pricing](https://aws.amazon.com/sagemaker/pricing/).

## Auswahl einer Instance für die Datenverarbeitung
<a name="machine-learning-on-graphs-processing-instance-size"></a>

Für den SageMaker [KI-Datenverarbeitungsschritt](machine-learning-on-graphs-processing.md) ist eine [Verarbeitungsinstanz](https://docs.aws.amazon.com/sagemaker/latest/dg/processing-job.html) erforderlich, die über ausreichend Arbeitsspeicher und Festplattenspeicher für die Eingabe-, Zwischen- und Ausgabedaten verfügt. Die spezifische Menge an Arbeits- und Festplattenspeicher, die benötigt wird, ist von den Eigenschaften des Neptune-ML-Diagramms und dessen exportierten Features abhängig.

Standardmäßig wählt Neptune ML die kleinste `ml.r5`-Instance aus, deren Arbeitsspeicher zehnmal größer als die Größe der exportierten Diagrammdaten auf der Festplatte ist.

## Auswahl einer Instance für Modelltraining und Modelltransformation
<a name="machine-learning-on-graphs-training-transform-instance-size"></a>

Die Auswahl des richtigen Instance-Typs für [Modelltraining](https://docs.aws.amazon.com/sagemaker/latest/dg/how-it-works-training.html) oder [Modelltransformation](https://docs.aws.amazon.com/sagemaker/latest/dg/how-it-works-batch.html) ist vom Typ der Aufgabe, der Größe des Diagramms und den Anforderungen an die Bearbeitungszeit abhängig. GPU-Instances stellen die beste Leistung bereit. Wir empfehlen grundsätzlich serielle `p3`- und `g4dn`-Instances. Sie können auch `p2`- oder `p4d`-Instances verwenden.

Standardmäßig wählt Neptune ML die kleinste GPU-Instance aus, deren Arbeitsspeicher größer als von Modelltraining und Modelltransformation benötigt ist. Informationen zu dieser Auswahl finden Sie in der Datei `train_instance_recommendation.json` im Amazon-S3-Datenverarbeitungsausgabeort. Dies ist ein Beispiel für den Inhalt einer `train_instance_recommendation.json`-Datei:

```
{ 
  "instance":     "(the recommended instance type for model training and transform)",
  "cpu_instance": "(the recommended instance type for base processing instance)", 
  "disk_size":    "(the estimated disk space required)",
  "mem_size":     "(the estimated memory required)"
}
```

## Auswahl einer Instance für einen Inferenzendpunkt
<a name="machine-learning-on-graphs-inference-endpoint-instance-size"></a>

Die Auswahl des richtigen Instance-Typs für einen [Inferenzendpunkt](machine-learning-on-graphs-inference-endpoint.md) ist vom Typ der Aufgabe, der Größe des Diagramms und dem Budget abhängig. Standardmäßig wählt Neptune ML die kleinste `ml.m5d`-Instance aus, deren Arbeitsspeicher größer als vom Inferenzendpunkt benötigt ist.

**Anmerkung**  
Wenn mehr als 384 GB Arbeitsspeicher benötigt werden, verwendet Neptune ML eine `ml.r5d.24xlarge`-Instance.

Informationen zum von Neptune ML empfohlenen Instance-Typ finden Sie in der Datei `infer_instance_recommendation.json` am Amazon-S3-Ort, den Sie zum Modelltraining verwenden. Dies ist ein Beispiel für den Inhalt dieser Datei:

```
{ 
  "instance" :   "(the recommended instance type for an inference endpoint)",
  "disk_size" :  "(the estimated disk space required)",
  "mem_size" :   "(the estimated memory required)"
}
```