

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Überblick über die Verwendung des Features Neptune ML
<a name="machine-learning-overview"></a>

 Die Neptune ML-Funktion in Amazon Neptune bietet einen optimierten Arbeitsablauf für die Nutzung von Modellen für maschinelles Lernen in einer Graphdatenbank. Der Prozess umfasst mehrere wichtige Schritte: das Exportieren von Daten aus Neptune in das CSV-Format, die Vorverarbeitung der Daten, um sie für das Modelltraining vorzubereiten, das maschinelle Lernmodell mit Amazon SageMaker AI zu trainieren, einen Inferenzendpunkt für Vorhersagen zu erstellen und dann das Modell direkt aus Gremlin-Abfragen abzufragen. Die Neptune Workbench bietet praktische Befehle für Linien- und Zellenmagie, mit denen Sie diese Schritte verwalten und automatisieren können. Durch die direkte Integration von Funktionen für maschinelles Lernen in die Graphdatenbank ermöglicht Neptune ML Benutzern, anhand der umfangreichen relationalen Daten, die im Neptun-Diagramm gespeichert sind, wertvolle Erkenntnisse abzuleiten und Vorhersagen zu treffen. 

## Starten des Workflows für die Verwendung von Neptune ML
<a name="machine-learning-overview-starting-workflow"></a>

Die Verwendung des Features Neptune ML in Amazon Neptune umfasst in der Regel zunächst die folgenden fünf Schritte:

![\[Diagramm zum Neptune-ML-Workflow\]](http://docs.aws.amazon.com/de_de/neptune/latest/userguide/images/neptune-ML-workflow.png)


1. **Datenexport und Konfiguration** – Beim Datenexport werden mithilfe des Service Neptune-Export oder des `neptune-export`-Befehlszeilen-Tools Daten aus Neptune im CSV-Format in Amazon Simple Storage Service (Amazon S3) exportiert. Gleichzeitig wird automatisch eine Konfigurationsdatei mit dem Namen `training-data-configuration.json` generiert, in der angegeben ist, wie die exportierten Daten in ein trainierbares Diagramm geladen werden können.

1. **Datenvorverarbeitung** – In diesem Schritt wird der exportierte Datensatz mithilfe von Standardverfahren vorverarbeitet, um ihn für das Modelltraining vorzubereiten. Für numerische Daten kann eine Merkmalsnormalisierung durchgeführt und Textmerkmale können mit `word2vec` codiert werden. Am Ende dieses Schritts wird aus dem exportierten Datensatz ein DGL-Diagramm (Deep Graph Library) generiert, das während des Modelltrainings verwendet wird.

   Dieser Schritt wird mithilfe eines SageMaker KI-Verarbeitungsauftrags in Ihrem Konto implementiert, und die resultierenden Daten werden an einem von Ihnen angegebenen Amazon S3 S3-Standort gespeichert.

1. **Modelltraining** – Beim Modelltraining wird das Machine-Learning-Modell trainiert, das für Prognosen verwendet wird.

   Das Modelltraining erfolgt in zwei Phasen:
   + In der ersten Phase wird mithilfe eines SageMaker KI-Verarbeitungsauftrags ein Konfigurationssatz für die Modelltrainingsstrategie generiert, der festlegt, welcher Modelltyp und welche Modell-Hyperparameterbereiche für das Modelltraining verwendet werden.
   + In der zweiten Phase werden dann mithilfe eines SageMaker KI-Modeltuning-Jobs verschiedene Hyperparameter-Konfigurationen ausprobiert und der Trainingsjob ausgewählt, der das Modell mit der besten Leistung hervorgebracht hat. Der Optimierungsauftrag führt eine vordefinierte Anzahl von Modelloptimierungsaufträgen mit den verarbeiteten Daten durch. Am Ende dieser Phase werden die trainierten Modellparameter des besten Trainingsauftrags verwendet, um Modellartefakte für Inferenzen zu generieren.

1. **Erstellen Sie einen Inferenzendpunkt in Amazon SageMaker AI** — Der Inferenzendpunkt ist eine SageMaker KI-Endpunkt-Instance, die mit den Modellartefakten gestartet wird, die durch den besten Trainingsjob erzeugt wurden. Jedes Modell ist an einen einzelnen Endpunkt gebunden. Der Endpunkt ist in der Lage, eingehende Anfragen von der Graphdatenbank anzunehmen und die Modellvorhersagen für die Eingaben in den Anfragen zurückzugeben. Nach der Erstellung des Endpunkts bleibt dieser aktiv, bis Sie ihn löschen.

1. **Abfragen des Machine-Learning-Modells mithilfe von Gremlin** – Sie können Erweiterungen der Gremlin-Abfragesprache verwenden, um Prognosen vom Inferenzendpunkt abzufragen.

**Anmerkung**  
Die [Neptune-Workbench](graph-notebooks.md#graph-notebooks-workbench) enthält ein Line-Magic und ein Zell-Magic, mit denen Sie bei der Verwaltung dieser Schritte viel Zeit sparen können, nämlich:  
[%neptune\$1ml](notebooks-magics.md#notebooks-line-magics-neptune_ml)
[%%neptune\$1ml](notebooks-magics.md#notebooks-cell-magics-neptune_ml)

# Erstellen von Prognosen auf der Grundlage sich entwickelnder Graphdaten
<a name="machine-learning-overview-evolving-data"></a>

Bei einem sich ständig ändernden Graphen möchten Sie möglicherweise regelmäßig neue Stapelprognosen auf der Grundlage aktueller Daten erstellen. Das Abfragen vorab berechneter Prognosen (transduktive Inferenz) kann erheblich schneller sein als die spontane Generierung neuer Prognosen auf der Grundlage der allerneuesten Daten (induktive Inferenz). Beide Ansätze haben ihre Berechtigung, je nachdem, wie schnell sich Ihre Daten ändern und welche Leistungsanforderungen Sie haben.

## Der Unterschied zwischen induktiver und transduktiver Inferenz
<a name="inductive-vs-transductive-inference"></a>

Bei der Durchführung transduktiver Inferenz sucht Neptune nach Prognosen, die zum Zeitpunkt des Trainings vorberechnet wurden, und gibt sie zurück.

Bei der Durchführung induktiver Inferenz konstruiert Neptune den entsprechenden Untergraphen und ruft seine Eigenschaften ab. Das DGL-GNN-Modell wendet dann Datenverarbeitung und Modellauswertung in Echtzeit an.

Durch induktive Inferenz können daher Prognosen zu Knoten und Edges generiert werden, die zum Zeitpunkt des Trainings nicht vorhanden waren und die den aktuellen Zustand des Graphen widerspiegeln. Damit geht jedoch eine höhere Latenz einher.

Wenn Ihr Graph dynamisch ist, sollten Sie die induktive Inferenz verwenden, um sicherzugehen, dass die neuesten Daten berücksichtigt werden. Wenn Ihr Graph jedoch statisch ist, ist die transduktive Inferenz schneller und effizienter.

Die induktive Inferenz ist standardmäßig deaktiviert. Sie können sie für eine Abfrage aktivieren, indem Sie das Gremlin-Prädikat [Neptune\$1ml.inductiveInference](machine-learning-gremlin-inference-query-predicates.md#machine-learning-gremlin-inference-neptune-ml-inductiveInference) in der Abfrage wie folgt verwenden:

```
.with( "Neptune#ml.inductiveInference")
```

# Inkrementelle transduktive Workflows
<a name="machine-learning-overview-evolving-data-incremental"></a>

Während Sie Modellartefakte einfach aktualisieren, indem Sie die Schritte eins bis drei (vom **Datenexport und der Konfiguration** bis zur **Modelltransformation**) erneut ausführen, unterstützt Neptune ML einfachere Methoden, um Ihre ML-Stapelprognosen mithilfe neuer Daten zu aktualisieren. Eine Möglichkeit besteht darin, einen [inkrementellen Modell-Workflow](#machine-learning-overview-incremental) zu verwenden, und eine andere darin, das [Modell mit einem Warmstart neu zu trainieren](#machine-learning-overview-model-retraining).

## Workflow mit inkrementellem Modell
<a name="machine-learning-overview-incremental"></a>

Bei diesem Workflow aktualisieren Sie die ML-Prognosen, ohne das ML-Modell erneut zu trainieren.

**Anmerkung**  
Dies ist nur möglich, wenn die Grafikdaten mit neuen Knoten und/oder Edges aktualisiert wurden. Es funktioniert derzeit nicht, wenn Knoten entfernt werden.

1. **Datenexport und Konfiguration** – Dieser Schritt ist identisch mit dem im Haupt-Workflow.

1. **Inkrementelle Datenvorverarbeitung** – Dieser Schritt ähnelt dem Schritt der Datenvorverarbeitung im Haupt-Workflow, verwendet jedoch dieselbe Verarbeitungskonfiguration wie zuvor, die einem bestimmten trainierten Modell entspricht.

1. **Modelltransformation** – Anstatt eines Modelltrainingsschritts nimmt dieser Schritt der Modelltransformation das trainierte Modell aus dem Haupt-Workflow und den Ergebnissen des Schritts der inkrementellen Datenvorverarbeitung und generiert neue Modellartefakte, die für Inferenzen verwendet werden können. Im Schritt zur Modelltransformation wird ein SageMaker KI-Verarbeitungsjob gestartet, um die Berechnung durchzuführen, die die aktualisierten Modellartefakte generiert.

1. **Amazon SageMaker AI-Inferenzendpunkt aktualisieren — Wenn Sie über einen vorhandenen Inferenzendpunkt** verfügen, aktualisiert dieser Schritt optional den Endpunkt mit den neuen Modellartefakten, die durch den Modelltransformationsschritt generiert wurden. Alternativ können Sie zudem einen neuen Inferenzendpunkt mit den neuen Modellartefakten erstellen.

## Erneutes Training des Modells mit Warmstart
<a name="machine-learning-overview-model-retraining"></a>

Mit diesem Workflow können Sie ein neues ML-Modell für die Erstellung von Prognosen anhand der inkrementellen Grafikdaten trainieren und bereitstellen. Sie können jedoch mit einem vorhandenen Modell beginnen, das mit dem Haupt-Workflow generiert wurde:

1. **Datenexport und Konfiguration** – Dieser Schritt ist identisch mit dem im Haupt-Workflow.

1. **Inkrementelle Datenvorverarbeitung** – Dieser Schritt ist identisch mit dem beim inkrementellen Modellinferenz-Workflow. Die neuen Graphdaten sollten mit derselben Verarbeitungsmethode verarbeitet werden, die zuvor für das Modelltraining verwendet wurde.

1. **Modelltraining mit Warmstart** – Das Modelltraining ähnelt dem Training im Haupt-Workflow, Sie können jedoch die Suche nach Modell-Hyperparametern beschleunigen, indem Sie die Informationen aus der vorherigen Modelltrainingsaufgabe nutzen.

1. **Den Amazon SageMaker AI-Inferenzendpunkt aktualisieren** — Dieser Schritt ist derselbe wie beim inkrementellen Model-Inferenz-Workflow.

# Workflows für benutzerdefinierte Modelle in Neptune ML
<a name="machine-learning-overview-custom-model-workflow"></a>

Mit Neptune ML können Sie eigene benutzerdefinierte Modelle für alle Aufgaben implementieren, trainieren und einsetzen, die Neptune ML unterstützt. Der Workflow für die Entwicklung und Bereitstellung eines benutzerdefinierten Modells ist im Wesentlichen derselbe wie für die integrierten Modelle, mit einigen Unterschieden, wie unter [Workflow für benutzerdefinierte Modelle](machine-learning-custom-model-overview.md#machine-learning-custom-model-workflow) erläutert.